Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 522: 22.2.2018 - 5.3.2018

22.2.2018: Der IBM PC

Ich will heute an ein Jubiläum erinnern – den IBM PC. Der eine oder andere der schon etwas Ahnung hat wird nun sagen „Jubiläum? Der IBM PC wurde am 12.8.1981 angekündigt!“, Ja aber in Deutschland war er erst im Frühjahr 1983 zu kaufen. Das ist nun 35 Jahre her. In diesem Blog geht es nicht um die Entwicklungsgeschichte des IBM PC, die habe ich meinem Buch und auf meiner Website lang und breit erzählt. Es geht um die Technik.

Als der IBM PC erschien, kauften sich natürlich auch die frühen Computerpioniere einen davon. Schon alleine, um zu sehen, was IBM produziert hatte. Die Einstufung schwankte stark. Lee Felsenstein, Mitgründer des ersten Computerclubs des „Homebrew Computer Clubs“ und beteiligt am Entwurf des Osborne 1 sah es positiv: „Wir schraubten das Gehäuse auf und sahen, dass Bausteine aus der Industrie verwendet worden waren, keine IBM spezifischen. Endlich hatte IBM die Mikrocomputerindustrie ernst genommen“. Andy Herzfeld, bei Apple angestellt dagegen. „Das Gerät war ein Witz! Es konnte weniger als die Rechner, die wir schon herstellten, ganz zu schweigen von dem, was in der Entwicklung war“ (weniger als ein Jahr später erschien von Apple die LISA, der erste Mikrocomputer mit einer grafischen Oberfläche).

Die Geschichte des IBM PC beginnt ein Jahr vor der Markteinführung. IBM hat eine Krisensitzung. Sie bemerken natürlich, dass immer mehr dieser Mikrocomputer verkauft werden. Dieser Markt boomte und IBM schaute nur zu. Alarmierender als der wirtschaftliche Aspekt war, was der bei IBM besonders gut aufgestellte Außendienst berichtete. Sie fanden immer mehr der Rechner in den Firmen die auch Großrechner einsetzen. Sie wurden genutzt für Dinge, die keinen Großrechner erforderten und die Anwender waren begeistert von ihnen. Mehr noch IBM verlor massiv an Wertschätzung. Sie galten als veraltet. Der wichtigste Zweck des IBM PC war es nicht, ein Verkaufsschlager zu werden (IBM sollte sich in den verkauften Stückzahlen enorm irren, es wurden viel mehr IBM PC verkauft als geplant) sondern die Wertschätzung bei den Kunden wieder zurückzugewinnen.

Al Loewe bekam das Okay für ein Konzept das viel Überzeugungsarbeit erforderte. Der IBM PC war in der Zeit und zu einem vertretbaren Preis nur entwickelbar, wenn er nichts von IBM enthielt. Keine IBM-Hardware, keine IBM-Software, keinen IBM-Kundendienst, Verkauf über den normalen Handel. Vor allem die letzten Punkte dürften gewöhnungsbedürftig sein. Denn es gab schon kleine Rechner von IBM, auch einen der Intel-Chips einsetze, aber sie waren immer eingebettet in den IBM-Vertrieb. IBM hatte größere Abteilungen für Marketing, Vertrieb und Kundendienst als für Entwicklung und Produktion.

Das erste was festgelegt werden musste, war der Prozessor. IBM besuchte Texas Instruments, Intel und Motorola und lies sich jeweils die neuesten 16 Bit Prozessoren präsentieren. Das sie 5 Jahre nach dem Erscheinen des 8080 nicht einen 8-Bitter nutzten war logisch, denn damit wäre sofort der Vergleich mit den schon etablierten Geräten gezogen worden. Texas Instruments hatte den langsamen TMS 9900 verbessert. Der TMS 9995 war so schnell wie der 8086 mit 5 MHz, schneller als der später genutzte 8088. Er schied aber bald aus. Meine Vermutung: der nur auf 64 kbyte begrenzte Arbeitsspeicher bot keine Möglichkeit sich von den 8-Bittern abzugrenzen. Es blieben der 8086 und 68000. Für den 68000 sprach, dass er ein Big-Endian Prozessor ist. Die Nomenklatur bezieht sich darauf wie Zahlen die mehrere Bytes belegen im Speicher abgelegt werden (16 oder 32 Bit Zahlen). Bei Big Endian enthält das letzte Byte die obersten 8 Bit, bei Litte Endian wie im 8086 dagegen die niedrig-wertigen Bits. Alle IBM Rechner arbeiten nach dem Big-Endian Prinzip, das vereinfachte den Datenaustausch denn der IBM PC war nicht nur als eigenständiges Produkt gedacht, sondern auch als intelligentes Terminal für einen Großrechner. Das Problem war, dass IBM mehrere Tausend Produktionsexemplare jedes Chips haben wollte, die in eigenen Labors auf Herz und Nieren überprüft wurden. Der MC 68000 war ein Jahr nach dem 8086 erschienen und zu dem Zeitpunkt hatte er noch einige Kinderkrankheiten. Angeblich war das der Grund für die Bevorzugung des 8086. Vielleicht hat auch Bill Gates eine Rolle gespielt, der den 8086 vorschlug. Die nicht von IBM stammende, aber logische Erklärung ist, die das der MC 68000 viel schneller war als der 8086. Er war in etwa so schnell wie der erst 1982 erscheinende 80286 und auf seiner Basis entstanden nicht nur Amiga, Atari ST und Macintosh, sondern auch die ersten Workstations von Sun und Silicon Graphics. Die Leistung war dann IBM wohl doch zu nahe an ihren Rechnern der „mittleren Datentechnik“. Zudem nutzte IBM nicht den 8086 sondern den 8088. Er hatte nur einen 8-Bit-Bus, brauchte für jeden Speicherzugriff daher doppelt so lange, was ihn um 40 % langsamer machte. Ein wichtiger Vorteil des 8088 war das er wegen des 8-Busses die 8 Bit Peripheribausteine des 8080 nutzen konnte und die waren seit Jahren in der Produktion, billig und es gab mehrere Hersteller, was den Preis weiter drückte.

Zuletzt nahm IBM nicht die 8-MHz-Version, sondern die 5-MHz-Version, was ihn nochmals langsame machte. Zusammen verlangsamte das den Rechner um den Faktor 2 gegen über einem 8 MHz 8086 und dem Faktor 5 gegenüber einem 8 MHz 68000. Um ein Übriges zu tun, wurde als Taktfrequenz nicht 5 MHz gewählt, sondern 4,77. Diese krumme Zahl kam aufgrund des NTSC-Signalkonverters zustande. Das war nämlich genau ein 4/3 der NTSC-Signalfrequenz von 3,58 MHz. Beide konnte man aus einem Takt von 14,3 MHz erzeugen. Das ersparte einen zweiten Quarzkristall im Wert von 50 ct und machte den Rechner weitere 5 % langsamer. Kurzum: Bei der Hardware sparte IBM maximal an Kosten, was sich aber dann nicht auf den Verkaufspreis durchschlug.

Eine praktische Rolle dürfte auch gespielt haben das Intel damals noch großzügig Lizenzen an Second-Source Hersteller vergab. Das war eine Bedingung von IBM: Sie wollten nicht von einem Hersteller abhängig sein. Schaut man sich die Chips auf einem IBM-PC-Mainboard an, so wird das auch deutlich. Nur der Prozessor stammt von Intel. Schon die Peripheriebausteine von NEC. Die zahlreichen TTL-Bausteine zur Adressaufteilung und Signalverstärkung von Motorola, Fairchild und Beckmann und die Speicherchips von AMD. In der Tat gab es nur drei Chips auf dem ganzen Board, die von IBM stammten, das waren die ROM Chips mit dem Bios. So wirklich gut geprüft scheinen sie bei IBM übrigens die Tausende von Samples nicht zu haben, denn das berühmte A20 Gate entging ihnen.

Die Kopie des damaligen Mikrocomputers geht weiter. Die unterste Preisklasse (Heimcomputer), aber auch ein Apple II kamen mit einem Anschluss für einen Kassettenrekorder und an einem Fernseher daher. Beim Apple noch verständlich, war er doch ein Rechner mit Farbgrafik und niedriger Auflösung, zudem war er damals schon 4 Jahre alt. Diskettencontroller kamen erst später von Apple. Ansonsten hatten diese Schnittstellenausrüstung aber nur Heimcomputer wie der VC-20, Ti 99 oder Sinclair ZX81. Bürocomputer, die es ja auch schon gab wie der Apple III, die CBM Serie von Commodore und andere hatten in der Regel einen Diskettenkontroller eingebaut, einen Anschluss an einen Monitor und einen Drucker. Das alles erforderte beim IBM PC Zusatzkarten: eine mit einem Diskettenkontroller, einen Textadapter zum Nutzen eines Monochrommonitors, eine Karte mit einer Druckerschnittstelle. Das war vor allem deswegen anachronistisch, weil die Basisversion schon 1.600 Dollar kostete, ohne diese Karten und Diskettenlaufwerke. Dafür bekam man einen kompletten Apple II mit Diskettenlaufwerken und Monitor. Ebenso hatte der Rechner ein BASIC (von Microsoft) im ROM wie die damaligen Heimcomputer. Dieses BASIC konnte aber nur auf Kassette speichern und lesen.

Die meisten IBM PC wurden mit Diskettenlaufwerken und Textadapter/Monitor verkauft. Das PC-DOS war in der ersten Version ein CP/M Klau und noch dazu ziemlich fehlerhaft. So konnte es nur die Disketten einseitig beschreiben, obwohl die Laufwerke zwei Schreib-/Leseköpfe hatten. Damit kam auch ein neues BASIC, das auf Disketten speichern konnte. Das belegte aber von der Diskette geladen weiteren Arbeitsspeicher.

Der Arbeitsspeicher war daher schon bei Auslieferung knapp. Auf der Platine gab es vier Reihen für 32 Chips. Geplant war allen Ernstes, den Rechner mit einer Bank (16 Kbyte, 8 x 16 KBit) auszuliefern. Doch das reichte nicht. Ausgeliefert wurde er mit 64 KByte (alle vier Bänke mit 16 KBit-Bausteinen belegt). Man konnte ihn auf 256 KByte erweitern, wenn man die Chips durch 64 KBit Exemplare ersetzte. Mehr ging nur über Zusatzkarten, die es mit 64 oder 256 KByte Speicherkapazität gab.

Der Ausbau auf mindestens 128 KByte war nötig, wenn man DOS laufen lassen wollte, da dieses auch Speicher belegte. Für eine Konfiguration mit zwei Diskettenlaufwerken, einem Monochrommonitor und einem umgelabelten Epson-Drucker musste man bei Erscheinen 4.575 Dollar ausgeben, selbst Anfang 1983 in Deutschland noch 10.000 DM (ohne Drucker). Nur zum Vergleich: ein Apple II entsprechend hochgerüstet mit 64 K Speicher, 80-Zeichendarstellung, Monitor und zwei Diskettenlaufwerken kostete rund 5.500 DM, also nur knapp die Hälfte mehr und man konnte damit sogar noch besser arbeiten. Farbgrafik oder überhaupt Grafik konnte der IBM PC nur mit einer weiteren Zusatzkarte darstellen und das nicht einmal hochauflösend. Es gab zur selben Zeit auch zahlreiche andere Rechner mit dem 16-Bit-Prozessor, die damals „MS-DOS-Kompatible“ genannt wurden. Sie hatten meist einen 8086 Prozessor, oft höher getaktet. Viele eine bessere Grafik oder zumindest Text/Grafikdarstellung ohne mehrere Karten einbauen zu müssen und fast alle hatten Floppys mit einer höheren Speicherkapazität, weil die schon damals nicht besonders hoch war.

Trotzdem wurde der IBM PC zum Renner. Der einfache Grund. Es stand „IBM“ drauf. IBM hatte in den Firmen einen legendären Ruf, die bauen keinen Scheiß. Damit war der Mikrocomputer salonfähig (war einige Jahre lang auch den anderen Herstellern nützte), vor allem wurde aber gar nicht erst nach Alternativen gesucht. Sehr schwer hatten es die MS-DOS Kompatiblen. Sie waren in etwa genauso teuer wie der IBM PC aber leistungsfähiger. Sie standen damit in direkter Konkurrenz, während jemand der Apple oder Commodore kaufte eine andere Hardwareplattform einsetzte und sich dessen auch bewusst war. Weil der Rechner aber so langsam war, fingen die Programmierer an MS-DOS zu umgehen. Sie nutzten nicht die Routinen, sondern direkt die einfacheren Biosroutinen oder sie umgingen beides. Viele Programme griffen direkt auf den Grafikspeicher zu, ohne das Betriebssystem zu bemühen. Nicht nur Spiele auch Textverarbeitungen. Bei Turbo Pascal musste man beim Setup angeben, ob man direkten Speicherzugriff wollte – das beschleunigte das Scrollen am Bildschirm deutlich. Die MS-DOS-Kompatiblen hatten aber einen anderen internen Aufbau. Die Programme liefen nicht auf ihnen, was verantwortlich für ihr Ausscheiden vom Markt war.
Sehr bald erschienen Nachbauten – IBM hatte das System ausführlich dokumentiert inklusive Biosaufrufen, Pinbelegungen etc. IBM hat wohl damit gerechnet, das der Rechner nachgebaut wurde. Das gab es ja schon: Der Altair wurde geklont (IMSAI 8080), der Apple II auch. Sie meinten aber, dass sie als große Firma alle Bauteile in so großen Mengen einkaufen, dass sie billiger produzieren könnten. Angesichts der hohen Verkaufspreise war es aber einfach, IBM im Preis zu unterbieten. Sehr bald gab es IBM PC Klone von zahlreichen anderen Computerherstellern. Sowohl von eingeführten Firmen, die auch größere Rechner herstellten wie Wang, NEC, NCR, Hewlett-Packard wie auch den Mikrocomputerherstellern wie Tandy, Commodore, Schneider, Apricot und wem das zu teuer war, der konnte noch weniger für einen „Taiwan-Kompatiblen“ ohne Marke ausgeben. IBM hatte auch ein Problem mit dem Markt. Er war zu kurzlebig für die Firma. So blieben die Preise des IBM PC lange Zeit konstant – woanders wurden die Rechner billiger, weil auch die Bauteile billiger wurden. Sie hatten auch andere Zeiträume im Sinn bei den Produktlebenszyklen. Ich habe ja schon in der Einleitung geschrieben, dass der IBM PC in Deutschland erst eineinhalb Jahre nach der Markteinführung in den USA erschien.

IBM machte Ende 1983 einen missglückten Versuch eines IBM PC als Heimcomputer. Der IBM PC Junior krankte an einer schlechten Tastatur und dem Anschluss an den Fernseher. Das war für ein Gerät, das 1270 Dollar mit einem Diskettenlaufwerk kostete, einfach zu wenig. Wer nur einen Rechner zum Spielen wollte, war mit einem C64 mit einem Bruchteil des Preises genauso gut bedient und wer arbeiten wollte, brauchte einen Monitoranschluss und eine zweite Disk. Beides war nicht im Gerät vorgesehen. Gut lief es noch beim IBM AT der erst 1984 erschien – der 80286 auf dem er aufbaut war da schon zwei Jahre alt. Doch danach hatte sich der Markt verselbstständigt. Andere Hersteller warteten nicht bis IBM den ersten Rechner mit einem 80386 vorstellte – Compaq war vorher da. IBM versuchte mit dem Personal System / 2 eigene Standards durchzusetzen – die Rechner hatten nun ein urheberrechtlich geschütztes Bussystem, den Microchannel, das zwar schneller war, aber nicht kompatibel zum alten System. Darauf ließen sich aber nur wenige ein. Karten dafür gab es wenige und die waren wegen de Lizenzgebühren an IBM teuer. PS/2 konnte sich nicht durchsetzen. Die Konkurrenz übernahm nur einige damit eingeführte Standards wie die VGA-Grafikdarstellung, das 1,44 MB Diskettenformat, die PS/2 Slots für Speicherplatinen und bis heute in jedem PC verbaut - eine neunpolige „PS/2“ Buchse für Tastatur und Maus.

27.2.2018: Raumfahrtbegeisterung und Raumfahrtnutzen

Ein Kommentar bei der Raketennachlese war ja das der Start der Falcon Heavy für die Raumfahrt begeistert. Nun macht der rote Roadster mit dem Astronautenanzug ja eine schöne Figur und es sind ästhetische Fotos entstanden. Ich nehme das mal zum Anlass, einen Blog über die Extreme Raumfahrtbegeisterung und Raumfahrtnutzen zu schreiben.

Unbestritten: Faszinierende Fotos können begeistern. Auch bei mir waren es Fotos, die mich zur Raumfahrt brachten, nachdem ich mich für Astronomie schon interessiert habe. Allerdings waren es bei mir die Fotos von Voyager und Viking von Mars, Jupiter und den Jupitermonden. Wer andere Interessen hat, mag sicherlich Raketenstarts faszinierender finden. Es gibt auch genügend Fans der bemannten Raumfahrt, die sich an schwebenden Astronauten erfreuen. Egal wie, es ist schön, wenn man jemand von der Raumfahrt begeistern kann. Doch ich meine immer, dann muss auch der zweite Schritt folgen: das Beschäftigen mit der Raumfahrt. Auch das hat verschiedene Ebenen. Ma kann tief in die Technik gehen, oder sie nur oberflächlich verfolgen. Doch selbst die, die dies tun vergessen gerne wie die Raumfahrt in den Alltag eingezogen ist. Damit befasst sich dieser Artikel.

Schon wenige Jahre nach Beginn der Raumfahrt begannen die USA. Am 1.4.1960 starteten die USA TIROS-1. Auch wenn die ersten Satelliten nur grob aufgelöste Fernsehbilder übermittelten, waren sie dennoch eine Revolution. Den welche Daten hatte man 1960 schon um die Wettervorhersage zu erstellen? An Land gab es viele Wetterstationen, zumindest in den USA oder Westeuropa. In anderen Ländern sah es dann schon schlechter aus. Von den Ozeanen gab es aber nur wenige Messstationen auf Schiffen. Hinzu kam, dass man alle Daten erst einmal einsammeln musste – die Stationen wurden manuell abgelesen und die Daten per Telefon übermittelt. Ein einziger Tiros-Satellit lieferte eine Aufnahme von 3000 km Seitenlänge, auf der man alle Hochs und tief anhand der typischen Wirbelstrukturen erkennen konnte. Ebenso die genaue Position von Warm- und Kaltfronten und damit war der Weg besser vorhersagbar. Wenige Satelliten lieferten eine neue Momentaufnahme mehrmals am Tag. Die Wettervorhersage verbesserte sich schlagartig von wenigen Stunden auf 1-3 Tage je nach Wetterlage bei einer gegebenen Genauigkeit. Ab 1965 begannen die USA die Bilder auch im APT-Format zu übertragen. Empfangen konnte sie, damit jeder der einen Empfänger dafür hatte – andere Wetterdienste aber auch andere. Das APT-Format war das Standardformat bei der Bildübertragung über Funk. Selbst die UdSSR schloss sich dem mit ihrem Meteorsystem an. Die Wettervorhersage war so bedeutend, dass die USA und UdSSR sogar eigene Systeme nur für die militärische Wettervorhersage bauten. Die Aufnahmen im sichtbaren Licht wurden später ergänzt durch IR-Aufnahmen die dann auch Aufnahmen auf der Nachtseite erlaubten und damit das Intervall zwischen zwei Überflügen halbierten. Ab Mitte der siebziger Jahre platzierte man die ersten Satelliten im geostationären Orbit. Verglichen mit den vorher (und bis heute üblichen) Satelliten im polaren Orbit deckt ein solcher Satellit eine Erdhemisphäre ab und machte anfangs ein Bild alle 30 Minuten anstatt alle 12 Stunden. Das verbesserte die Vorhersage weiter. Dazu kamen Aufnahmen in speziellen Wellenlängen, wie die des Absorptionsmaximums des Wasserdampfs oder des thermischen IR. Damit konnte man den Wasserdampfgehalt (wichtig für die Regenvorhersage) und die Temperatur messen. Heute können Wettersatelliten zahlreiche Parameter bis hin zu Umweltbelastungen bestimmen. Die Wettervorhersage ist heute über 14 Tage so genau wie vor den ersten Wettersatelliten für einen Tag. Die Wettersatelliten haben dafür viel beigetragen, auch wenn die Entwicklung der Computertechnik die erst diese Vorhersage errechenbar macht, genauso wichtig war. In jedem Falle sind seit 1961 die Zahl der Todesopfer durch Stürme oder andere Wetterphänomene in den Regionen die Wettersatelliten nutzen drastisch gesunken.

Zeitgleich begann die militärische Nutzung des Weltraums. Zeitweise gaben die USA mehr Geld für die militärische Raumfahrt aus als wie für die zivile, in Russland oder China ist dem heute noch so. Der Nutzen ist nur schwer abzuschätzen. Doch ich denke alleine die Aufklärung aus dem All hat die Welt sicherer gemacht. Wenn man weiß, wie stark der Gegner ist, kann man rationale Entscheidungen fällen. Weiß man das nicht, so lässt man sich von Emotionen leiten wie Angst. Die USA haben in den Fünfziger Jahren massiv aufgerüstet. Nicht nur nuklear. Es wurden auch viele Gelder in die Raketenprogramme gesteckt und die Luftverteidigung. Schaut man sich die Zahlen an, dann wurden für heutige Verhältnisse enorm schnell Flugzeuge indienst gestellt und nach wenigen Jahren schieden sie wieder aus, bei relativ hoher produzierter Stückzahl. Grund war der verlorene Koreakrieg, aber auch die Nachricht, dass die UdSSR den Vorsprung bei der Entwicklung von Atom- und Wasserstoffbombenentwicklung aufgeholt hatten. Chruschtschow sagte man produziere „Raketen wie Würstchen“ am Fließband. Den USA war die Aufklärung wie weit Russland war so wichtig, das sie nicht weniger als 13 Fehlstarts des ersten Keyhole Programms in Kauf nahmen, bis die erste Bergung von Aufnahmen gelang. Sie zeigten, das dem nicht so war: Russland hatte weniger Raketen einsatzbereit als die USA. Andere Satelliten lieferten weitere Informationen. Horchten den Funkverkehr ab, beobachteten Flottenmanöver oder warnten vor Raketenstarts. Die Frühwarnsatelliten sind ein zweischneidiges Schwert. Zum einen liefern sie etwas Wertvolles: Zeit zum Nachdenken. Sie können einen Raketenabschuss direkt nach dem Start entdecken, 15 bis 20 Minuten, bevor sie die USA erreichen. Nicht viel Zeit, aber immerhin mehr Zeit Alternativen durchzudenken, als wenn es nur wenige Minuten sind. Auf der anfertigen Seite hat ein russischer Frühwarnsatellit fast den dritten Weltkrieg ausgelöst, als Kosmos 1382 am 26.9.1983 den Abschuss von Raketen meldete. Da es nur wenige Raketen waren, ging der verantwortliche Offizier Petrow von einem Fehlalarm aus. Insgesamt denke ich aber hat die weltraumgestützte Aufklärung die Welt sicherer gemacht.

Zeitgleich mit den ersten Wettersatelliten begann die Nutzung von Satelliten als Funkrelais. Zuerst in niedrigen Erdumlaufbahnen. Schon mit den ersten Experimenten wurden Rekorde aufgestellt, wie die erste Live-Fernsehübertragung über den Atlantik. Der erste geostationäre Kommunikationssatellit verfünffachte mit einem Schlag die Zahl der Zahl der Telefonkanäle zwischen Europa und den USA. Erstmals mit der Olympiade in Tokio gab es Live-Fernsehübertragungen eines Ereignisses – vorher wurde alles aufgezeichnet mit einer Kuriermaschine in die USA geflogen und dann gesendet – das dauerte fast einen halben Tag. Innerhalb eines Jahrzehnts sanken die Kosten für ein Gespräch in die USA um 80 %, während sich die Zahl der Telefonkanäle verzehnfachte. Dieser Bereich der Raumfahrt war auch der Erste, der kommerziell genutzt wurde. Schon 5 Jahre nach dem ersten Satelliten wurde der erste kommerzielle finanzierte Satellit gestartet. Heute haben geostationäre Kommunikationssatelliten ihre Bedeutung für die Übermittlung von Telefongesprächen und Datenverbindungen verloren, weil man durch das Aufkommen des Internets viel mehr konventionelle Kabelverbindungen installiert hat. Noch immer sind sie aber von Bedeutung bei der Übertragung von Massenmedien, wie Fernsehen. Hier spielen sie ihre Vorteile voll aus – ein Satellit kann ein großes Gebiet abdecken. Diese Branche schreibt seit Jahrzehnten Gewinne. Versuche auch Satelliten für die Individualkommunikation zu nutzen (also über direkten Kontakt mit Senden nicht nur Empfangen) waren bisher nicht so erfolgreich. Iridium und Globalstar hatten nicht mit dem rasanten Ausbau des Handynetzes auch in Entwicklungsländern gerechnet. Doch in den nächsten Jahren starten weitere Firmen einen neuen Anlauf, diesmal mit Hunderten oder gar Tausenden von Satelliten und diesmal für Datenverbindungen. Mal sehen, was draus wird.

Die Erderkundung ist ein weiterer Bereich dessen Nutzen vor allem volkswirtschaftlich wie bei der Wettervorhersage ist. Es ist im Prinzip eine Weiterentwicklung, nur mit Instrumenten, die höher auflösen und in engbandigen Spektralbereichen arbeiten. Schon die ersten Versuche mit Landsat und Skylab führten zur Entdeckung von Mineralienvorkommen in den USA die Milliarden wert waren. Mit steigender Auflösung und noch engbandigeren Spektralkanälen kann man heute präzise Vorhersagen über die Ernte und den optimalen Erntezeitpunkt machen. Man kann Pflanzenkrankheiten oder abgestorbene Bäume erkennen, genauso wie die Verklappung von Schadstoffen über dem Meer. Ebenso kann man die Folgen von Naturkatastrophen erkennen und welche Straßen noch benutzbar sind, um in abgelegene Gebiete zu kommen. Der Nutzen ist schwer individualisierbar, doch die EU spart jährlich einen höheren dreistelligen Millionenbetrag, indem Satellitenbilder automatisch ausgewertet werden und Subventionen nur an Berechtigte und nicht Betrüger ausgezahlt werden die gar keine subventionierten Freiflächen schaffen.

Ende der Siebziger Jahre kam die Satellitennavigation hinzu. Zuerst nur für das Militär, inzwischen für jedermann. Bauern sparen Milliarden, indem sie Satellitenaufnahmen mit Navigation kombinieren und Dünger und Pestizide nur nach Bedarf dosieren. Wie hoch der Nutzen für den Verkehr ist, lässt sich nur schwer beziffern. In jedem Falle ist es der Aspekt der Raumfahrt, den heute am meisten Menschen mit dem Navi nutzen, das es ja inzwischen sogar ins Telefon geschafft hat. Mit der Verknüpfung mit aktuellen Satellitenaufnahmen, dass derzeit erprobt wird, wird der Nutzen noch höher – dann kann man mit kurzer Zeitverzögerung automatisiert Staus erkennen und gegebenenfalls Verkehrsteilnehmer warnen oder umleiten.

Nicht alles was die Nutzung des Weltraums brachte wurde auch genutzt. Die ersten Daten über Klimaveränderung gab es in den Achtziger Jahren. Genauer gesagt – da erkannte man erstmals das Ozonloch über der Antarktis und die Abnahme des arktischen Eises. Als man die Satellitenaufnahmen der letzten Jahre durchsah, zeigte sich das man die Daten schon seit 1972 hatte, nur sie eben nicht beachtet hatte. Heute verfolgen Satelliten selbst die Konzentration von Spurengasen, Meeresströmungen und kleinste Temperaturveränderungen. Doch was fehlt ist, dass man dies zur Kenntnis nimmt, was vor allem viele geistig Beschränkte nicht wahrhaben wollen und noch mehr auch danach handelt, was in einer Politik die nur in Zeitfristen bis zur nächsten Zwischenwahl denkt, nicht vorgesehen ist.

Der Nutzen der Raumfahrt ist real und zwar nicht nur volkswirtschaftlich und persönlich, sondern auch in der Wirtschaft. Satelliten generierten alleine 2016 Umsätze in Höhe von 260 Milliarden Dollar. Nur einen kleinen Teil davon machen die Regierungsausgaben aus – in Europa und den USA zusammen im gleichen Jahr rund 32 Mrd. Dollar, weltweit vielleicht 50. Der größte Teil entsteht durch kommerzielle Nutzung, wobei das meiste Geld auf dem Boden umgesetzt wird: Mit Empfangsgeräten Antennen etc. 2016 waren alleine in den USA über 211.000 Personen in der Raumfahrtindustrie beschäftigt, weltweit wahrscheinlich die doppelte Zahl. Auffällig ist auch das die kommerziell genutzten Segmente immer größer wurden. 20 Jahre lang waren es nur geostationäre Kommunikationssatelliten. Dann kamen um die Jahrtausendwende die kommerzielle Erdüberwachung und globale Handynetze hinzu. Seit diesem Jahr ist die erste Firma (Rocketlab) aktiv die einen Träger ohne jede Quersubventionierung durch staatliche Aufträge nur für kommerzielle Starts entwickelt hat. Weitere Firmen folgen in den nächsten Jahren und in den nächsten Jahren werden weitere erdnahe Satellitennetze für weltweit nutzbare Datenverbindungen folgen. Wahrscheinlich würden sich auch private Navigationssysteme rechnen – 1 Euro pro Empfänger als Lizenzgebühr würden ausreichen. Doch weil Staaten diese als unverzichtbar für ihr Militär ansehen und das Signal kostenfrei zur Verfügung stellen, gibt es keinen Bedarf ein weiteres System einzuführen. Ob sich die Netze von Tausenden erdnaher Satelliten lohnen werden wir in einigen Jahren wissen.

1.3.2018: Die neue Proton

Vor zwei Jahren hat ILS angekündigt eine neue Version der Proton in Dienst zu stellen. ILS ist in einer schlechten Lage: die Proton hatte in den letzten Jahren viele Fehlstarts sowohl im Modell M das für kommerzielle wie russische Starts genutzt wie auch von Russland exklusiv genutzten Variante mit block DM3.

Solange ILS die einzige Konkurrenz zu Arianespace war, bekam die Firma trotzdem genügend Aufträge. Es gab ja keine Alternative. Mit dem Ansteigen der Startrate von SpaceX blieben die aber weitestgehend aus. Noch schlimmer: Anders als Arianespace befördert die Proton nur einen Satelliten. Das setzte sie bei nicht voll ausgenutzter Nutzlast unter Kostendruck. ILS musste schon die Kosten für einen Start bei kleineren Satelliten senken. Da die Rakete aber in der Herstellung immer gleich viel kostet auf die Dauer ein teures Zugeständnis.

So wurde im März 2017 die Proton M und Proton Light aus der Taufe gehoben. Bei der Proton Medium sollte die zweite Stufe wegfallen, bei der Proton Light zusätzlich noch zwei der Booster. Die Nutzlast sinkt so von 6,3 auf 5 bzw. 3,5 t.

Das Konzept wurde inzwischen revidiert, anstatt der dritten wird bei der Proton Medium die zweite Stufe weggelassen, was bei vier Triebwerken wohl ein größeres Einsparpotenzial ist und die Light-Variante wurde gestrichen. Derzeit laufen Verhandlungen mit einem Flottenbetreiber über 5 Starts dieser Mediumvariante, die durch eine Stufe weniger wohl kostengünstiger sein wird.

ILS ist nach 12 erfolgreichen Starts der Proton seit 2015 zuversichtlich, dass die Aufträge wieder hereinkommen, wenn es 15 Starts in Folge sind und ab 20 Starts ohne Patzer in Folge sieht man dann keinen Wettbewerbsnachteil der Proton mehr. Mal sehen ob sie dahin kommen. Bei den letzten Fehlstarts war es ja ein bunter Mix. Zum Teil waren es Fehler, die es schon immer gab, aber wohl nur selten zuschlugen, wie bei der dritten Stufe. Zum Teil waren es aber auch Fertigungs- und Qualitätssicherungsfehler die vor allem bei russischen Starts zuschlugen.

ILS hat sich nun auf die Proton eingestellt, anders machen die Investitionen in eine neue Variante keinen Sinn. Vor zehn Jahren sah ILS und Russland die Proton noch als Auslaufmodell, das bald von der Angara 5 abgelöst wird. Nominell mit etwas höherer Nutzlast und preiswerter in der Fertigung tut sich bei der neuen russischen Rakete und auch dem Ausbau des neuen Kosmodroms Wostotschny in den letzten Jahren nicht sehr viel. Gerade mal zwei Starts der Sojus gab es in drei Planeten. Die Rampe für die Angara ist noch gar nicht eingeweiht worden. Gerade ILS bräuchte die Angara und das Kosmodrom. Der Start von Baikonur aus ist energetisch ungünstig. Bei der hohen Bahnneigung von 51,7 Grad braucht ein Satellit etwa 2.500 m/s um in den GEO zu erreichen. Beim Start vom Cape Canaveral aus sind es 1.800 m/s und beim Starts vom CSG aus 1.500 m/s. Beim Start von Echostar 21 wurde ein CCAF-Kompatibler Orbit angestrebt: 30,5 Grad × 2.300 × 35.786 km mit 1.780 m/s Differenzgeschwindigkeit. Das dauert Stunden, weil die Breeze-M Oberstufe einen so kleinen Schub hat. Vor allem aber kostet es Nutzlast. Denn die Breeze-M muss die Differenzgeschwindigkeit von rund 800 m/s ja aufbringen.

Insgesamt ist der Markt ja in Bewegung. So gibt es nun mehr und mehr Satelliten mit Ionentriebwerken und damit sehen auch die Betreiber der Satelliten die Situation anders. Früher war ein Argument gegen Ionentriebwerke, das sie Monate brauchen um den Endorbit zu erreichen. Das wird heute eher gegenüber den ersparten Startpreis gegengerechnet.

Das brachte ILS auf eine andere Idee. Die Breeze M entstand ursprünglich aus der Breeze-K die auf der Rockot eingesetzt wird. Diese Stufe wiederum basiert auf dem bei Phobos 1 und 2 eingeführten Traktorblock für Raumsonden, der in einer anderen Konfiguration auch in der Fregat genutzt wird. Diese Stufe ist prinzipiell für einen Betrieb über Monate ausgelegt, auch wenn sie in der Praxis maximal zwei Tage (bei SSGTO-Missionen) aktiv ist. 1999 brachte man den im Erdorbit gestrandeten Asiasat 3A über einen Mondkurs doch noch in den GEO. Ein Team bei ILS hat nun eine Strategie ausgearbeitet den Mond regulär für Bahnmanöver zu nutzen. Drei Profile werden derzeit mit potenziellen Kunden diskutiert:

Meiner Meinung nach klingt der Full-Service zwar auf den ersten Blick für den Satellitenbetreiber am günstigsten, muss er doch seine Planungen für die Inbetriebnahme nicht anpassen. Er hat in dieser konservativen Branche, aber einen gravierenden Nachteil: Der Satellit kann dann nur noch von der Proton gestartet werden. Der Betreiber müsste einen Großteil des internen Treibstoffs weglassen und nur noch den übrige lassen den der Satellit später für Lageregelung und Orbit-Konstanthalten benötigt. Das ist eine Lösung. Dann könnte er auch woanders gestartet werden. Radikaler wäre es, gleich kleinere Tanks zu nehmen, Heliumdruckgas wegzulassen und auf das Haupttriebwerk zu verzichten. Da Antriebssysteme eine hohe Trockenmasse haben macht das alleine einige Hundert Kilo Gewicht aus.

Die Änderungen an der Breeze-M seien dagegen klein. Die Tanks sind schon gut isoliert und für einen langen Betrieb vorgesehen. Die Stufe würde ein kleines entfaltbares Solarpaneel bekommen zur Stromversorgung, dazu weitere Sender und Antennen für eine Kommunikation über größere Distanzen. Insgesamt wurde das Trockengewicht nur leicht ansteigen.

Die Nutzlast würde dagegen deutlich ansteigen. Eine Transferbahn zum Mond ist energetisch günstiger als die bisherige Bahnanpassung. Schon alleine deswegen würde die Nutzlast ansteigen. Die Geschwindigkeitsdifferenz zum GEO ist dann bei dem Long-Transfer kleiner als bei anderen Trägern, was ebenfalls Treibstoff spart. ILS nennt eine Nutzlast von 6,7 t auf einen Mondtransferkurs. Bei einem Long-transfer wären das dann äquivalent 7,6 t in einen CSG-kompatiblen Orbit oder 8,7 t für einen CCAF kompatiblen Orbit. Beim Fast-Transfer sind es 6,7 t in einen CCAF kompatiblen Orbit, das ist aber nicht günstiger als die 6,6 t die heute schon die Proton in diesen Orbit transportiert. Der Full-Service ist dagegen ungünstiger, denn die rund 2 t schwere Breeze gelangt so auch in einen GEO. Netto gelangen so nur noch 3,9 t in dem GEO, das entspricht 6,3 t in einem Orbit mit einem Δv von 1.500 m/s. Nur wenn der Satellitenhersteller das Antriebssystem einspart wird es ein Nettogewinn (rund 300 kg mehr). ILS hält es trotzdem für die bessere Lösung, vor allem für die neuen Satelliten mit Ionentriebwerken, denn diese durchquere nun nicht mehr die Van Allen Strahlungsgürtel was Solarzellen und Elektronik schädigen soll.

Bleibt noch die Frage der Startfenster – diese sollen nicht kritischer sein als sonst. Es gibt jeden Tag ein Startfenster zum Mond, das auch nicht kürzer als das in den GTO ist.

Die Pläne zeigen in welcher Bredouille ILS ist. Auf der einen Seite das Qualitätsproblem der Proton, auf der anderen Seite neue Konkurrenz durch SpaceX. Man hat sicher Hoffnungen auf das neue Kosmodrom gesetzt. Mit einer Bahnneigung von minimal 31 Grad würde das die Nutzlast der Proton für vergleichbare Umlaufbahnen deutlich anheben. Neben SpaceX als Konkurrenz für Einzelstarts hat nun eine russische Firma auch die Startplattform von Sealaunch übernommen und zwölf neue Zenit in Auftrag gegeben. Der erste Start wird 2019 erfolgen. Nominell ist die Zenit zwar um fast ein Drittel kleiner, aber der Start vom Äquator aus spart 1100 m/s gegenüber Baikonur ein, sodass die Nutzlast fast gleich hoch sind.Wenn die Zenit die neue Oberstufe Block DM3 einsetzt werden es ebenfalls einige Hundert Kilo mehr werden.

Warum ILS nicht anstatt neuer Versionen einfach einen Start vom Äquator aus anstrebt? Die Nutzlast wäre dort beträchtlich höher, rund 9 bis 10 t in den GTO. Sealaunch zeugt ja das es mit einer Plattform geht, ansonsten gäbe es genügend äquatornahe Inseln wo man einen Startplatz bauen könnte. Zumindest zwischen der Ukraine und Brasilien gab es mal die Idee die Zyklon von Alcântara aus zu starten. Das hätte man schon vor Jahrzehnten angehen können. Langfristig ist es billiger als dauernd an der Proton nachzubessern.

3.3.2018: Die Proton und der Mond

Schade, dass ich so aufmerksame Leser habe – Niemand ist auf die Münchhausener Geschichte vorgestern hereingefallen. Doch eigentlich ist es keine Münchhausener Geschichte, es ist reale Physik und daher dazu heute etwas mehr.

Ich habe alles mit meiner neuen Aufstiegssimulation durchgerechnet, die inzwischen um einige Optimierungsfunktionen ergänzt wurde. Die Vega als Problemfall funktioniert nun auch. Ich werkele derzeit am Zweiimpulstransfer. Wenns fertig ist stelle ich es vielleicht mal hier vor. Aber die Proton in der Version Proton M Breeze M macht Probleme. Das liegt daran, dass die Proton mal als zweistufige ICBM entwickelt wurde. In der Version hätte der Sprengkopf etwa 8 bis 10 t gewogen. Nun wiegen dritte und vierte Stufe und Nutzlast zusammen 80 t. Schon die zweite Stufe hat eine Beschleunigung die anfangs unter 1 g liegt. Die oberen auch und am extremsten ist es bei der Breeze M. Bei einer Startmasse von rund 28 t beträgt der Schub nur 19,6 kN.

Daraus ergibt sich folgendes: damit die Breeze M nicht wieder in der Atmosphäre verglüht bevor sie auch nur einen Parktorbit erreicht hat (schon dazu muss sie 6 Minuten lang brennen) müssen die ersten beiden Stufen eine hohe vertikale Geschwindigkeit aufbauen. Die Breeze M erreicht mit der angegebenen Masse von 21,17 t keinen GTO Orbit, dazu ist sie zu schwer. Reduziert man die Startmasse auf 17 t (in Übereinstimmung mit den 23 t Nutzlast einer Proton M ohne vierte stufe für einen Erdorbit) so gelangt sie in einen GTO mit hohem Perigäum (1165 km) und einer Nutzlast von 7,1 t. Allerdings mit einer Bahnneigung von 51,7 Grad. Bei den angegebenen 6,2 t für den GTO kann ich die Masse bis auf rund 20 t erhöhen um noch einen GTO zu erreichen. Das die Proton empfindlich gegenüber kleinen Massenänderungen zeigt auch der Fehlstart eines Satelliten mit Block DM3 bei dem man diesen zu stark betankt hatte – er trat weil er zu schwer war wieder in die Atmosphäre ein.

Bei einem Standard GTO benötigt der Satellit von nun an noch 2420 m/s um in einen Geo zu gelangen. Bei einer Bahnneigung von 6 Grad, wie sie vom CSG aus möglich ist, sind es bei einer 250 x 35790 km Bahn nur 1491 m/s. Das ist um fast 1000 m/s ungünstiger und untragbar, so große Treibstoffvorräte haben die Satelliten nicht. Daher führt die Breeze zahlreiche Manöver durch wobei es heute zwei Strategien gibt: einen Orbit mit einem höheren Perigäum und abgesenkter Inklination und bisher nur wenige Male eingesetzt ein supersynchroner GTO. Er ist energetisch günstiger da in der größeren Distanz die Geschwindigkeit kleiner ist und damit auch der Aufwand um die Bahnneigung zu verringern. Er erforderte aber Betriebszeiten von 24 bis 40 Stunden, während die andere Strategie maximal 5-10 Stunden dauert.

In meiner vereinfachten -rechnung, die ignoriert das zwischendurch noch 350 kg Masse von der Breeze (ein Zusatztank) abgestoßen werden, reichen die 912 kg mehr Nutzlast als von ILS angegeben, immerhin für 334 m/s Geschwindigkeitskorektur. In der Praxis ist das Schubprofil komplexer, so gibt es nicht eine Zündung wie bei mir, sondern bis zu fünf. Damit vermeidet man auch, dass das Perigäum so stark ansteigt denn auch das ist energetisch ungünstig,

In jedem Falle ist aber die Korrektur am Apogäum die energetisch optimale Möglichkeit. Weniger als diese 2420 m/s (oder 2430 m/s bei einem Perigäum in 250 km Höhe) wird es bei keiner Strategie sein.

Da erscheint der Weg zum Mond doch eine Alternative zu sein. Startet man mit 10.951 m/s aus einer 200 km Bahn, passiert den Mond in 384.403 km Distanz vom Erdmittelpunkt in 1.115 km Distanz zur Mondoberfläche so erreicht man eine Bahn von 385.850 x 35.876 km. Von da aus braucht man nur noch 1246 m/s um von einer 51,6 Grad Bahn auf den GEO zu kommen. Die Rechnung würde im ersten Schritt also so aussehen:

Standard-GTO: 10.205 m/s + 2.430 m/s = 12.635 m/s

Mond-Transfer: 10.951 m/s + 1.246 m/s = 12.197 m/s

Der Umweg über den Mond ist also schon mal um 438 m/s günstiger. Das ist schon mit einem Vorbeiflug zu schaffen.

Schwieriger ist die Inklination abzubauen. Sie hängt eng mit der genauen Position des Mondes zusammen. Da der Mond um 5,2 Grad zum Erdäquator geneigt die Erde umkreist, wird die Inklination in den seltensten Fällen bei 0 Grad liegen. Asiasat 3A absolvierte auch zwei Vorbeiflüge um die Bahn anzupassen, in einem konnte er nicht Inklination und Perigäum auf die Zielwerte anpassen. Minimal sind aber in jedem Falle 6 Grad möglich, je nach Position des Mondes auch weniger. Reduziert man die Bahnneigung auf 6 Grad so sinkt der Geschwindigkeitsaufwand noch weiter, auf 1059 m/s. Dann sieht im zweiten Beispiel die Rechnung so aus:

Standard-GTO: 10.205 m/s + 2.430 m/s = 12.635 m/s

Mond-Transfer: 10.951 m/s + 1.059 m/s = 12.010 m/s

Das sind nun schon 625 m/s weniger und damit in etwa so viel wie man vom CCAF aus aufwenden muss (12.026 m/s bei einer 27,9 Grad Bahn). ILS gibt die Nutzlast für eine Mondtransferbahn mit 5.650 kg an, ich komme auf nur 5.250 kg, allerdings reicht auch bei mir die Breeze-M Reserve nickt für die Geo-Manöver aus. Ich vermute mal, man hat bei ILS eine weitaus ausgeklügeltere Aufstiegsbahn als mein einfaches Modell. Die 5.750 kg gegenüber 6.180 kg für einen GTO sind zuerst weniger Nutzlast. Doch wenn man berücksichtigt, dass man 1246 bzw. 1059 anstatt 1.500 m/s oder 1.800 m/s aufwenden muss relativiert sich das. Bei einem spezifischen Impuls von 3100 m/s für das Haupttriebwerk entspricht dies 486 bzw. 820 kg Treibstoff oder einer Masse von 5.360 bzw. 5.694 kg für einen CSG- oder CCAF-kompatiblen GTO. Also weniger als die 5.750 kg die auf den Mondtransferkurs befördert werden. Dem müsste man Masse entgegen rechnen die man bräuchte für die längere Reise wie ein kleines Solarpaneel zur Stromversorgung, stärkere Sender und eine größere Empfangsantenne, dazu kämen wahrscheinlich noch weitere Reserven für Lagenregelungstreibstoff. Das führt dazu, das es in der Summe wahrscheinlich kein Gewinn an Nutzlast übrig bleibt.

Etwas problematisch ist, allerdings wie schon geschrieben der Betrieb der Ionentriebwerke. Wenn man das Perigäum in die Höhe des GEO legt wird jeder Betrieb oberhalb des GEO auch das Perigäum absenken. Um das zu verhindern müsste man den erdnächsten Punkt niedriger legen. Das geht wegen des Van-Allen-Gürtels aber auch nicht zu tief. Unterhalb von 20.000 km sind aber die Gürtel zu aktiv. Nun die schlechte Nachricht: Damit dies in einem Jahr klappt, muss der spezifische Impuls sehr klein sein, weil die Umlaufdauer anfangs so groß ist. Ein rein mit Ionentriebwerken ausgestatteter Satellit wäre daher für den Mondkurs ungeeignet. Sinnvollerweise wird er daher mit einem chemischen Antrieb die Startbahn absenken. Mit 300 m/s wäre sie auf ein Apogäum von 120.000 km absenkbar. In 220 Tagen kann dann ein Satellit mit 15 kW Leistung und 5.750 kg Startmasse den GEO erreichen, wenn das Startperigäum beim Start in 20.000 km Höhe ist. In jedem Falle ist die Dauer länger als beim Transfer vom LEO aus.

Man sieht: es gibt zu viele Einschränkungen. Deswegen wird es auch nicht gemacht.

Was ich allerdings nicht verstehe ist warum man niemals Anstrengungen unternommen hat, einen äquatornahen Startplatz auszusuchen, wie dies kommerziell doch bei der Zenit und Sojus klappte. Es hätte sich finanziell gelohnt. Die Startrampe der Sojus im CSG kostete mit Zusatzgebäuden für Nutzlast und Raketenintegration 468 Millionen Euro, eine ähnliche Summe wurde in Sealaunch investiert. Die Proton M / Breeze M wird seit 2001 eingesetzt, die Breeze M seit 1999. Sie wurde eigens für kommerzielle Starts entwickelt, Russland nutzt für eigene Regierungsnutzlasten immer noch Block DM-2 bzw. 3. Sie ist gegenüber dem Block DM auch nur in einem Punkt von Vorteil: durch den lagerfähigen Treibstoff ist die Betriebsdauer länger. Block DM3 hat aber den höhere Schub (kleinere Gravitationsverluste) und den höheren spezifischen Impuls. Hätte Russland sich die Entwicklung der Breeze M die ja auch Geld gekostet hat gespart und 450 Millionen Dollar in einen äquatornahen Startplatz investiert, sie hätten das längst wieder rein geholt. Wenn der Startplatz wie die Proton M 2001 verfügbar gewesen wäre, so hätten sie seitdem bei 5 kommerziellen Starts pro Jahr 85 kommerzielle Starts durchgeführt. Auf jeden würden so Abschreibungskosten von 5,3 Millionen Dollar entfallen um die der Start teurer wäre. Demgegenüber wäre die Nutzlast höher. Sie beträgt meinen Berechnungen nach 10,2 t mit Block DM 3 und nur 8,7 t mit der Breeze M. Das würde Doppelstart erlauben, wenn man eine Doppelstarteinrichtung einführt, alternativ würde die Proton Medium so ohne Problem die Nutzlast der größten Satelliten erreichen und diese wäre durch die eingesparte Stufe sogar billiger. Langfristig könnte Russland so Baikonur aufgeben. Sie braucht den Startplatz eigentlich nur für ISS und GEO-Starts. Zur Iss kann man nun von Wostotschny aus starten und einen äquatornahen Startplatz gibt es dann für die Proton. Die restlichen Starts für sonnensynchrone Bahnen sind auch von Plessezk aus durchführbar wo es für die kleinen Träger schon Startrampen gibt. Bei Pachtbeträgen in dreistelligen Millionenbereich pro Jahr die an Kasachstan zu bezahlen sind lohnt sich das.

5.3.108: Oh heligs Blechle

Letzte Woche kam der Urteilsspruch des Bundesverwaltungsgerichts zum Thema Fahrverbote in Innenstädten und anscheinend hat sich jeder gerade das rausgesucht, was ihm in den Kram passt. Die für eine reinere Luft klagenden Umweltverbände, dass die Klage erfolgreich war, die Städte, dass die besonderen Umstände berücksichtigt werden müssen, Handwerker und Lieferanten, dass es Ausnahmegenehmigungen geben kann und die Bundespolitik, dass es ja eigentlich niemanden betrifft und man nichts machen muss. So Merkel. Denn es sind ja nur 66 Gemeinden, also so kleine Dörfer wie Berlin, Hamburg, München, Stuttgart, Dresden und die vielen kleinen Dörfer im Ruhrgebiet wie Düsseldorf, Köln, Duisburg … Kurzum: In den 66 Städten dürfte wohl ein größerer Anteil der Bevölkerung wohnen. Eigentlich auch logisch den der Dreck entsteht ja nun mal durch Autos und die findet man vor allem in großen Städten und nicht in kleinen Dörfern auf dem Land.

Dabei ist das Thema nicht neu. Grenzwerte für NOx werden seit 1993 diskutiert. Die nun einzuhaltenden Grenzen gelten seit 2001 europaweit verbindlich. 17 Jahre Zeit sie einzuhalten. Reagiert hat man erst, als Klagen vor dem Europäischen Gerichtshof anhängig waren und auch dann zuerst nur mit dem Aufruf zu freiwilligen Verzicht, der erwartungsgemäß nichts gebracht hat. Dann haben sich die Städte und Gemeinden darauf berufen, dass Fahrverbote Sache des Bundes wären und man nichts machen könne. Dieser Zahn ist nun gezogen.

In den letzten Tagen gab es dann auch viel Berichterstattung zu dem Thema. Handwerker und Dienstleister fürchten darum, nicht mehr in die Innenstadt fahren zu können, weil viele Transporter und Kombis von Handwerkern Diesel sind. Verbraucher befürchten einen Wertverlust ihrer Dieselfahrzeuge und Autohändler berichten das schon vor dem Urteil, dass Euro-3 und Euro-4 Diesel unverkäuflich seien. Man bekäme sie für ein Appel und ein Ei. Weil sie aber niemand kauft, gehen sie nach Polen.

Nun sind alle überrascht. Diesel sind dreckig. Offensichtlich leiden Autofahrer unter Scheuklappenblindheit. Jeder der mal einen Autoauspuff bei laufendem Motor angesehen hat sieht, was da an Dreck raus kommt. Die Wolke ist unübersehbar und auch Benziner emittieren Feinstaub. Einfach mal ein Taschentuch an den Auspuff halten. Und das da NOx raus kommt weiß jeder Radfahrer, der hinter einer Dreckschleuder in der Schlange vor der Ampel wartet.

Nein ich will nichts mehr zur Automobilindustrie sagen, das habe ich schon zu genügend im Blog getan. So hier, und hier, Natürlich auch hier. Eine Analyse findet sich auch. Und das Grundproblem gab es schon 2009. Diese Industrie hat in Deutschland Narrenfreiheit. Sie kann machen was sie will, sie wird von der Politik nicht belangt, eher gefördert und beschützt. Nicht einmal jetzt, wo es Fahrverbote geben soll und die deutschen Automobilbauer Rekordgewinne aufweisen, die locker für die Umrüstung aller Diesel reichen würden setz sich die Regierung für die kostenlose Umrüstung der Diesel durch die Hersteller ein.

Nein es geht in diesem Blog um das Auto selbst und den Autofahrer. Meine Meinung: Es gibt Bürger zweiter Klasse und es gibt Autofahrer. Sie werden bevorzugt. Es werden laufend neue Straßen und Autobahnen gebaut, aber kaum Fahrradwege oder auch nur Bürgersteige. Im Neubaugebiet in der Nachbargemeinde gibt es nur an einer Straßenseite einen Bürgersteig. Ganz zu schweigen von der Breite. Selten sind Fahrradstreifen und Bürgersteige so breit, das zwei Fußgänger oder Fahrradfahrer nebeneinander fahren können ohne das einer ausweichen oder Absteigen muss. Bei Straßen für Autos ist das selbstverständlich – außer sie sind von beiden Seiten zugeparkt. Dabei sind sie naturgemäß viel breiter als die Wege für andere Verkehrsteilnehmer. Nicht mal den wenigen Platz den Fußgänger und Fahrradfahrer brauchen wollen ihnen also die Gemeinden zustehen.

Dafür ist trotz Neubaugebiet, also Einhaltung der neuen Vorschriften, dass pro Wohneinheit eine bestimmte Anzahl an Stellplätzen vorhanden sein muss, die Straße zugeparkt. Einfacher Grund: Die Häuser sind zweigeschossig und haben eine Garage. Pro Geschoss kann eine Familie einziehen, das bedeutet, dass man mindestens zwei Stellplätze braucht, wenn man den Bundesdurchschnitt nimmt, (es gibt mehr zugelassene Autos als Führerscheinbesitzer) müssten es sogar vier sein.

Ich rate keinem Fahrradfahrer, sich das gleiche Recht zu nehmen wie ein Autofahrer, also sein Fahrrad zu den Autos auf der Straße zu parken oder in der Mitte der Fahrbahn zu fahren. Obwohl nach der Straßenverkehrsverordnung alle Verkehrsteilnehmer gleichberechtigt sind, empfinden das viele Autofahrer als Unverschämtheit und räumen das Fahrrad weg, um einzuparken. Nicht immer ohne Beschädigungen. Beim Fahren in der Mitte wird es sogar gefährlich. Autofahrer sind auch die Einzigen, die meinen Hupen zu müssen, übrigens immer erst dann, wenn das, weshalb sie hupen, eigentlich vorbei ist, also, nachdem sie überholt haben oder jemanden ausgewichen sind. Sinn würde es nur machen, wenn man das vorher tut, um jemanden zu warnen, wobei ich dabei nur zusammenzucke und das ist kontraproduktiv. Fahrradfahrer klingeln erheblich seltener und auch Fußgänger rufen nicht dauernd anderen hinterher. Daran sieht man schon die Eigenheit mancher Fahrzeugbesitzer.

Dem Autofahrer reicht es nicht, dass er bevorzugt wird gegenüber allen anderen, sowohl in überbauter Fläche wie exklusiv nutzbaren Straßen. Viele parken auch noch die Bürgersteige zu oder sind auf schmalen Feldwegen unterwegs, die für Autos eigentlich gesperrt sind, und belegen dann deren ganze Breite.

Deswegen muss man sich nicht wundern, wenn Städte sich so schwer tun mit Fahrverboten, obwohl es woanders doch geht. Es gibt in anderen Ländern Regelungen, nachdem man entweder für die Fahrt in Ballungsgebiete zahlen muss oder nicht jeder rein darf. z.B. abwechselnd nur gerade oder ungerade Endziffern der Nummer. Ich halte das auch für besser, anstatt Diesel zu verdammen. Denn ich glaube kaum, dass irgendein Autofahrer sich Gedanken um die Umwelt macht. Wenn das ein Gesichtspunkt beim Kauf wäre, dann würden sich Klein- und Kleinstwagen gut verkaufen und nicht wie in der Praxis SUV und Kombis.

Mein Vorschlag: Liebe Gemeinden erhebt eine Gebühr für die, die ins Stadtgebiet fahren. Das hat zwei positive Folgen. Zum einen fährt dann nicht mehr jeder in die Städte. Vielleicht kann man so die Grenzwerte einhalten. Zum Zweiten kann man das Geld nutzen, um den öffentlichen Nahverkehr zu verbessern. Das Problem dessen ist, dass er für die, welche nicht täglich zur Arbeit fahren müssen sehr teuer ist, die weichen dann lieber aufs Auto aus. Bei uns kostet ein Einzelticket oder eine Viererkarte zwei bis dreimal so viel wie die gleiche Fahrt anteilig bei einer Monatskarte (wenn man 20 Arbeitstage pro Monat annimmt). Wäre das billiger, so würden viele den OPNV nutzen, dann wären die Busse und Bahnen auch jenseits der Stoßzeiten zu Arbeitsbeginn und -ende voll – schon mal ein Vorteil, ohne dass es viel mehr Geld kostet. Man könnte aber mit dem Geld auch die Infrastruktur ausbauen oder zumindest die Taktung verkürzen. Oft stört ja nicht, dass die Fahrt zu lange dauert, sondern dass man viel Zeit mit dem warten auf den Anschluss verplempert.

Es muss nicht komplett kostenlos sein, obwohl ich denke das, das möglich wäre. Aber selbst wenn es komplett kostenlos wäre, fürchte ich wird es nicht viel ändern. Deutschland ist ein Autonarrenland. Anders kann ich es mir nicht erklären, warum es so viele Autos sind und für jede noch so kleine Strecke genutzt werden müssen. Warum die meisten so groß sind – oft größer als nützlich. Wenn bei uns in der Hauptstraße ein langer Kombi parken will dann muss der warten bis längere Zeit kein Auto kommt, weil er beim Ein-/Ausparken beide Spuren blockiert. Trotzdem sehe ich das jeden Tag und ich wohne in einer kleinen Gemeinde, da kommt niemand von außerorts zum einkaufen. Anstatt das jemand aus der Gemeinde also zu Fuß oder mit dem Fahrrad einkauft, nimmt er lieber einen sperrigen Kombi. Es geht ohne Auto, ich komme seit 53 Jahren ohne aus. Kleine Strecken gehe ich zu fuß, mittlere mit dem Fahrrad und wenn es weiter gehen muss dann mit öffentlichen Verkehrsmitteln. Ich halte das Auto für einen Luxus, das ist es, auch wenn man mal zusammenrechnet, was es pro Jahr kostet. Doch den Luxus leisten sich eben zu viele, obwohl man schon lange nicht mehr flüssig unterwegs ist. Die Staumeldungen sind manchmal länger als die Hauptnachrichten. Ich weiß nicht, was passieren muss, damit sich was ändert. Vielleicht mal wieder autofreie Sonntage, idealerweise bei schönem Wetter. Ich glaube, wenn keiner fahren kann, dann würde sich etwas im Bewusstsein ändern, das es auch ohne Auto geht, ansonsten gibt es nur Neid auf die, die noch fahren dürfen.

Es ändert sich ja nicht mal was, wenn es teurer wird. Wie heiß es schon vor 35 Jahren „Und kostet das Benzin auch 3 Mark 10, scheißegal es wird schon gehen ...“ Ja Markus, recht hast Du gehabt.

7.3.2018: Starlink

Endlich ist es passiert: ich habe mal eine Wette gegen SpaceX verloren. Endlich, weil es ja fast schon peinlich war, das ich dauernd gewonnen habe, indem ich nur dagegen gewettet habe, was sie selber angekündigt haben. Das war aber Absicht, denn ich war mir recht sicher, dass sie vor Ende April ihre Testsatelliten für ihr Kommunikationsnetz starten würden. Wären die nämlich bis dahin nicht betriebsbereit im Orbit, so wäre ihre Reservierung für Kommunikationsfrequenzen hinfällig gewesen. Um diese bewerben sich nämlich derzeit viele Firmen mit verschiedenen Projekten, über die man mit Ausnahme von OneWeb fast nichts weiß. SpaceX sticht in zwei Dingen heraus: Das eine ist, das sie alles alleine machen. Oft sind es sonst Allianzen bei den Anträgen für die Frequenzen von verschiedenen Firmen für Bau der Satelliten, Start, Betrieb und Bodeninfrastruktur. Zum Zweiten haben sie das mit Abstand größte Netz in der Planung. Starlink, so heißt das Netz soll aus zwei Flotten bestehen. Zuerst einer in einem hohen Orbit zwischen 1.110 und 1.325 km Höhe aus 4.425 Satelliten in 83 Bahnebenen. Diese senden und empfangen im Ku- und Ka-Band. Im März 2017 hat dann SpaceX nochmals einen Antrag für Frequenzen gestellt, diesmal für das V-Band. Die Satelliten dazu, nun weitere 7.518 Stück werden in 340 km Höhe operieren. Das V-Band liegt bei 40 bis 90 GHz. Es liegt damit so hoch, das Funkwellen schon effektiv durch die Atmosphäre blockiert werden. Darauf beruht auch die bisherige Nutzung des Bandes: Es wird für das Regenradar genutzt.

Die beiden nun gestarteten Erstlinge dienen dazu, dass man die bewilligten Frequenzbänder behält, nicht dazu ein Netz aufzubauen. Ähnlich ging auch die EU mit den beiden Galileo-Vorgängern GIOVE A und B vor, die 2005 und 2008 gestartet wurden, lange bevor 2011 mit dem Aufbau des operativen Netzes begonnen wurde. Die beiden Prototypen wogen je 400 kg.

Machen wir zuerst mal eine Analyse, denn viel weiß man ja nicht vom Aufbau. Auffällig sind zuerst mal die beiden Bahnebenen. Die Bahnebene in 340 km Höhe ist so erdnah, dass sie nicht lange Zeit stabil ist. Nimmt man an das jeder Satellit 1 kW Leistung benötigt und das auch bei Nacht (für einen Kommunikationssatelliten eine eher kleine Leistung, dabei muss er einen Kreis von 500 km Durchmesser abdecken), dann kann man leicht errechnen, dass er dafür eine Fläche von rund 6 m² für die Solarpaneele braucht. Dazu kommt noch der Körper mit den Antennen. Selbst im optimistischen Fall einer ruhigen Sonne wird ein Satellit mit 7 m² Fläche (Antennen + Solarpaneele) aber aus 340 km Höhe in 80 Tagen verglühen. Nun werden die Satelliten Ionenantriebe haben. Die werden kein Problem haben, die rund 100 m/s de man so pro Jahr bei ruhiger Sonne (250 m/s bei aktiver Sonne) braucht, um die Bahn aufrechtzuerhalten, zu erbringen. Die Bahnen haben einen Vorteil: Ausgefallene oder ausgemusterte Satelliten verglühen sehr bald in der Atmosphäre.

Das ist bei den Bahnen über 1100 km Höhe anders. Die Lebensdauer eines Satelliten beträgt in dieser Höhe Jahrtausende. Diese Satelliten müssen gezielt deportiert werden. Das wird bei so vielen Satelliten eine Herausforderung, vor allem wenn sie aus irgendeinem Grund ausfallen.

Die erste offene Frage ist, warum sind es zwei Flotten? Oneweb kommt mit einer aus. Bei Oneweb sind es 648 operative Satelliten in 1200 km Höhe in Phase 1, doch auch diese Firma hat angekündigt weitere 1.972 Satelliten zu bauen. Das erste Netz besteht aus 18 Ebenen (Orbitplanes) und jeder Satellit wiegt 175 bis 200 kg, also nur halb so viel wie bei SpaceX.

Die naheliegendste Erklärung für zwei Flotten für mich ist, das die vielen Satelliten im niedrigen Orbit die Daten empfangen, unter umständen auch direkt senden. Sie sind so näher am Sender und Empfänger, das soll ja eine kleine elektronisch geschwenkte Antenne sein, keine Parabolantenne wie bei Satellitenfernsehen mit ihrer vergleichsweise großen Fläche aber auch dem Zwang der Nachführung. Die größere Nähe, rund 3 bis 4-mal näher bedeutet ein um den Faktor 9 bis 16 stärkeres Signal.

Beide Konzepte wollen letztendlich Internet anbieten und so müssen die Daten irgendwann zu einer Bodenstation gelangen, wo sie ins weltweite Backbone eingespeist werden. Bei uns wäre es kein Problem, das jeder Satellit Kontakt zu einer Bodenstation hat. Davon gibt es in Europa genug. Doch in Afrika, Kanada, weiten Teilen Russlands und Südamerika sieht es anders aus. Von der Abdeckung der Meere ganz zu schweigen. Bei nur 340 km Höhe müsste ein Signal im ungünstigsten Fall über mehrere Satelliten übertragen werden, bis man an einen kommt, der in der Nähe einer Bodenstation ist. Mit der zweiten Konstellation in großer Höhe umgeht man das. Die Höhe ist vergleichbar der, die Globalstar nutzt damit kann man das mit diesem Konzept vergleichen und Globalstar braucht nur 24 Satelliten für eine weltweite Abdeckung. Damit deckt ein Satellit einen Kreis von 8000 km am Boden ab, innerhalb dessen sicher eine Bodenstation ist. Daher macht auch die Beantragung von Frequenzen des V-Bandes Sinn, denn diese wären für die Erde-Satellit-Kommunikation ungeeignet. Die niederfrequenten Wellen werden zu stark von der Atmosphäre absorbiert. Sie sind aber für die Satelliten-Satellitenkommunikation nutzbar.

Eine andere Frage ist, warum es so viele Satelliten sind. Ehrlich gesagt: Darauf habe ich keine vollständig befriedigende Antwort. Zwar braucht man mehr Satelliten, wenn man erdnäher ist, aber es würden bei den hohen Bahnen sicher wenige, ich schätze 20-30 Stück in 4-6 Bahnebenen ausreichen für ein erstes Netz, das weltweit operativ ist. Oneweb will zuerst 20 Satelliten für das erste Netz im Orbit haben. Je höher die Nachfrage, desto mehr Satelliten müssten natürlich gestartet werden. Aber bei einer solchen Dimension, die ja schon beim ersten Netz 10-mal mehr Satelliten als Oneweb vorsieht, scheint SpaceX wohl mit einer enormen Nachfrage zu rechnen.

Die naheliegende Erklärung für die Menge ist aber einfach: SpaceX macht alles selbst, also werden die Satelliten mit Falcons gestartet. Für die Flotte in großer Höhe sind es 83 Bahnebenen, das sind 53 bis 54 Satelliten pro Ebene. Jeder Start kann aus himmelsmechanischen Gründen nur eine Ebene versorgen. Nach meiner Berechnung beträgt die Nutzlast einer Falcon 9 für einen polaren Start in dieser Höhe 14 t. Da die Erststufe geborgen wird und man noch einen Dispenser braucht, sind es eher 10 t Nettonutzlast. Bei 400 kg pro Satellit kann man also immer 25 Stück auf einmal starten. Das wäre zwar schon eine globale Abdeckung doch da man nur eine Bahnebene bedient, reicht das nicht. Wenn ich von 6 Bahnebenen als Minimum für ein Globales Netz ausgehe, habe ich 6 Starts. Dann allerdings mit einem Ungleichgewicht: 25 Satelliten pro Bahnebene, aber nur 6 Bahnebenen, das macht nahe des Äquators Probleme. Wahrscheinlicher sind daher anfangs 20 bis 25 Bahnebenen, die ebenso viele Starts nötig machen. Beim Gesamtsystem aus 4425 Satelliten braucht man mindestens zwei Starts pro Ebene, das sind also mindestens 166 Starts, eher mehr denn meine Rechnung ist optimistisch, realistisch dürften drei Starts pro Ebene sein, also 249 insgesamt. Das setzt dann schon eine enorme Startrate voraus. Trotzdem erklärt das nicht, warum sich SpaceX mit 25 Bahnebenen und 25 Satelliten pro Bahnebene, das sind, 625 stück, ein etwa genauso viel wie Oneweb beschränkt. Die Kosten für Satelliten und Starts werden ja erst über Jahre durch Einnahmen wieder regeneriert.

Bei der LEO-Bahn ist es so, dass die Nutzlast der Falcon 9 höher ist, ich komme auf 18,5 t. Mit Bergung und 1 t für den Dispenser etwa 12,5 t netto. Das reicht für 30-31 Satelliten pro Bahn, also braucht man für 7518 Satelliten mindestens 250 weitere Starts. Die Falcon Heavy könnte jeweils eine hohe Bahnebene bedienen, doch ich habe meine Zweifel, dass man 75 Satelliten in der kleinen Nutzlastverkleidung unterbringt. Bei der Leo-Konstellation ist sie schon zu groß, denn bei gleichem Zahlenverhältnis hat man hier 108 Bahnebenen bei jeweils 69 bis 70 Satelliten pro Ebene. Diese rund 28 t Nutzlast sind dann für eine Falcon Heavy schon zu wenig. Allerdings hat SpaceX die Rakete ja schon abgekündigt. Wahrscheinlich wird die BFR das ja alles richten. Wir wissen ja Geld regnet es bei SpaceX vom Himmel, die können alles vorfinanzieren. Riesige Raketen die Passagiere befördern, zwei Satellitenflotten mit zusammen 12.000 Satelliten, mehr als seit Beginn der Raumfahrt insgesamt gestartet wurden und natürlich Marskolonien. Immerhin macht nun alles Sinn: SpaceX entwickelt ja seit der Falcon heavy Raketen ohne Nutzlast, also ohne Kunden. Nun ist es aber klar. Sie brauchen keine Kunden, sie nutzen sie alle selbst. Münchenhausen hätte eine Freude an der Firma, denn auch er hat sich am eigenen Schopf aus dem Loch gezogen...

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99