Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 486: 1.1.2017 - 6.1.2017

1.1.2017: Das schwarze Jahr für die Musik und die „Generation Kassette“

Nun hat ja das neue Jahr begonnen und es wird Zeit mal zurückzublicken auf das alte Jahr. Ich habe mir aber keinen Raumfahrtüberblick vorgenommen. Denn so viele positive Ereignisse gab es nicht: Die Landung von Schiaprelli ist gescheitert, eine Falcon 9 explodiert. Es gingen mehr Missionen zu Ende, als neue gestartet wurden und irgendwie ist das Jahr eher lau gewesen. Was aber auffällt, ist das im letzten Jahr viele Musiker gestorben sind. Vor allem viele, die man kennt. David Bowie, Prince, Roger Cicero, Leonhard Cohen, George Michael. Dazu kommen noch Unzählige die nicht jeder kennt, weil sie Musiker einer Band waren wie Maurice White von Earth Wind and Fire oder Keither Emerson und Greg Lake von Emerson, Lake und Palmer. Beatles Fans mögen sich auch an George Martin erinnern, der auch dieses Jahr verstarb.

Ich wollte nicht den Fehler einer WDR-Sendung wiederholen, die angesichts der schon vielen Toten am 8.11.2016 eine Sendung über verstorbene Musiker verfasste – einen Tag vorher verstarb Leonhard Cohen, der es so nicht mehr in die Sendung schaffte und nachdem auch an Weihnachten George Michael starb, wollte ich nicht vor Ablauf des Jahres das Thema anschneiden. An ihn musste ich noch denken, als eine Sendung über „Weihnachtssongs“ sein Lied „Last Christmas“ zum kommerziell erfolgreichsten Weihnachtssong erklärte. Angeblich soll ihm das Lied jährlich 8 Millionen Euro einbringen, was ich für zu hoch halte, aber 8 Millionen insgesamt also über 30 Jahre, das halte ich für wahrscheinlich.

Auch wenn man von den mdisten Künstlern schon seit Jahren oder Jahrzehnten keinen großen Hit mehr vernommen hat, bleibt doch eine Lücke. Die meisten waren auch noch produktiv. Nur hat sich der Musikgeschmack geändert. Dadurch kommen neue Lieder eben nicht mehr in die Top 10. Heute wird eben was anderes gehört als in den Achtzigern und Siebzigern. Die Musiker sind sich dagegen treu geblieben. Was mich bedrückt sind zwei Dinge. Zum einen das viele so früh von uns gegangen sind wie Prince oder George Michael. Gut,it Leonhard Cohen war über achtzig, da konnte man damit rechnen. Aber Abgang schon mit fünfzig? Vielleicht auch, weil nach meinem subjektivem Gefühl es heute keine "Superstars" mehr gibt. Also Stars, die nicht nur mit einem oder zwei Alben erfolgreich sind, sondern über längere Zeit. Ein Jahrzehnt oder länger. Es kommt wenig Neues nach und die, die man kennt sterben auch noch – meiner Ansicht nach – viel zu früh.

Das Zweite ist, dass man bei Musik gar nicht so fühlt, wie die Zeit vergeht. Schaut man sich von Schauspielern Filme an, so merkt man, wie sie altern. Die Musik bleibt zeitlos. Selbst wenn ein Schauspieler später keine Filme mehr dreht, (was die Ausnahme ist, aber Manfred Krug, der auch dieses Jahr verstarb, hat z.B. mit dem Eintritt ins Rentenalter aufgehört) sieht man beim Betrachten aus welcher Zeit sie stammen, an Dingen wie Einrichtung, Kleidung oder so. Man merkt: Das ist Vergangenheit. Aber Musik bleibt irgendwie „ewig“. Nicht umsonst wird auch heute ja noch klassische Musik gekauft und gespielt. Was sich ändert, ist der breite Publikumsgeschmack. Es wird einem auch dann bewusst, wie man älter wird. Ansonsten bemerkt man das ja nicht so drastisch. Also ich fühle mich nun nicht so viel anders, als wie mit 30, obwohl seitdem 20 Jahre vergangen sind. Dass ich nicht mehr 30 bin, merke ich aber auch an der Musik: Mein Musikgeschmack ist in den Siebzigern und Achtzigern hängen geblieben. Das Einzige was ich mir an „moderner“ Musik kaufe sind deutsche Interpreten wie Annett Louisan, Wir sind Helden, Zweiraumwohnung, die gute Musik mit guten Texten verbinden. Viel deutsche Musik, die nicht Schlager war, gab es ja damals nicht.

Das leitet mich zu dem zweiten Thema über. Vor einiger Zeit kam mal auf ZDF Info eine Sendung über Erfindungen, die gar nicht so alt sind und die man schon wieder fast vergessen hat. Da ging es um Telefone mit Wählscheibe, Walkmans, Floppy Disks, Schallplatten, VHS-Video und eben auch die Kassette. Darüber gibt es auch ein Buch betitelt wie im Blog mit „Generation Kassette“. Ich habe noch etwa 270 Kompaktkassetten bei mir auf dem Speicher und eine Stereoanlage zum Abspielen auch noch. Von vielem anderen wie dem Videorekorder und den VHS-Kassetten habe ich mich dagegen getrennt. Bei den Kassetten konnte ich den Schritt nicht tun.

Warum nicht? In jeder Kassette steckt viel Arbeitszeit und damit auch viele Erinnerungen. Man muss zur richtigen Zeit auf „Rec“ und „Play“ drücken. Das geht nur, wenn man entweder die ersten Sekunden eines Songs nicht mitschneidet und schnell zum Kassettendeck hechtet. Die zweite Alternative ist, dass man den Titel vorher kennt. Dann muss er angesagt sein. So hatte ich ein Jahrzehnt lang feste Termine: Samstags nachmittags wo die Neueinsteiger und Aufsteiger der deutschen und US-Charts gespielt wurden, Sonntags abends das Gegenstück die Hörerhitparaden von SDR und SWF, wobei die SWF-Hörer einen besseren Geschmack hatten, aber auch Frank Laufenberg, der dauernd in die Titel reingequasselt hat. Mensch habe ich das damals gehasst. Radiomoderatoren, die reden während der Titel schon läuft oder wenn er fast zu Ende ist oder noch schlimmer in der Mitte. Das zweite waren die Wunschstunden, im SDR wochentags immer von 18-19 Uhr auch da wurde vorher angesagt. Als der SDR 1989 die erste Nonstop-Hitparade ("Top 1000 XL" machte, war das toll. Ich habe etliche Kassetten bespielt auch mit Titeln, die sonst selten liefen. Kurzum: es steckt viel Zeit in jeder Kassette. Man sitzt stundenlang vor dem Radio nur, um zum richtigen Zeitpunkt auf die richtigen Tasten zu drücken. Die Ausbeute: einige Songs pro Stunde. Aber das prägt auch und es sorgt für Verbundenheit zu den Kassetten.

Aus heutiger Sicht habe ich enorm viel Geld dafür ausgegeben. Ich habe nur wenige Kassetten gekauft. Eigentlich nur alle Alben der Beatles und eine von Whitney Houston. Aber es waren im Laufe der Zeit drei Kassettendecks, das Letzte sogar ein Doppelkassettendeck, zwei Receiver und dann kam noch ein Equalizer hinzu. Zusammen sicher 2000 Mark. Dabei ist die Ausstrahlung über das UKW schon mit einem Informationsverlust verbunden und selbst bei teuren Kassettendecks und teuren Kassetten auch die Aufnahme verlustbehaftet. Dafür hätte ich auch 100 bis 150 Schallplatten kaufen können. Einen Schallplattenspieler habe ich aber niemals besessen und ein CD-Spieler kam, auch erst als ich schon nicht mehr auf Kassette aufzeichnete. Das lief anfangs der Neunziger aus, lange bevor ich Musik auf CD oder gar MP3 gehört habe. Der Grund war, dass das, was in den Charts kam, nun nicht mehr meinem Musikgeschmack entsprach, der zugegebenerweise in den Achtzigern stehen geblieben ist.

Eines hatte ich nur selten: Bandsalat. In der Sendung wurde gesagt, die „Generation Kassette“ würde man daran erkennen, dass sie wissen, was die Verbindung zwischen einem Bleistift und einer Kompaktkassette ist. Für alle, die zu jung sind: Mit dem eckigen Griff des Bleistifts konnte man ideal die Räder in den Kassetten drehen, um ein entwickeltes Band "Bandsalat" wieder aufzurollen.

Nun haben wir ein neues Jahr. Ich sehe relativ pessimistisch in das neue Jahr. Der Hauptgrund ist Donald Trump. Noch nie habe ich jemanden erlebt de weniger geeignet als Politiker ist als er. Die Leute, die er als Berater und Kandidaten für Ministerämter präsentiert, machen auch wenig Hoffnung das, die ihn zurechtstutzen. Es scheint eher noch schlimmer zu werden. Viel Hoffnung auf das Parlament in den USA kann man auch nicht haben. Wenn dort ein völliger Vollpfosten sagt „Wir müssen den Irak angreifen, die haben dort Chemiewaffen und unterstützen Terrorristen“ und als Beweis dann gezeichnete Risszeichnungen von Anlagen auf LKW liefert, dann jubelt ihm das Parlament zu und steht voll hinter ihm. Wenn dort einer aber meint, man müsste jeden Amerikaner Krankenversichern und die Triebhausgase senken, dann blockieren sie seine Politik, was bis fast an den Staatsbankrott geht. Putin sollte in die USA auswandern und US-Staatsbürger werden. Ich bin überzeugt, die Amis würden ihn sofort wählen und er müsste nicht mal die Wahl manipulieren.

2.1.2017: Die Zenit 3 Satelliten

Russland rüstet derzeit auf. 11.000 neue gepanzerte Fahrzeuge, darunter ein neuer Panzertyp bis 2020, zwei neue Atom-U-Boote pro Jahr, neue Interkontinentalraketen mit noch mehr Sprengköpfen und Su-35 Kampfflugzeuge – das sind nur einige der Anschaffungen.

Während früher die Aufrüstung des Militärs einherging mit neuen militärischen Starts – die meisten der bis zu 100 Starts pro Jahr waren militärischer Natur – blieb eine Renaissance bei den Raketenstreitkräften – zumindest, was Satellitenstarts angeht, aus. Stattdessen gab es wechselnde Pläne für neue Schwerlastraketen, die bald wieder verworfen wurden. Das soll sich nun ändern.

Russlands Verteidigungsminister Schoigu kündigte ein neues Satellitenprogramm an, dessen Daten auch uneingeschränkt kommerziell verfügbar seien – im Gegensatz zu den USA als Seitenhieb, dass von den kommerziell verfügbaren Aufnahmen sich erst mal ihre abgreift und dann nur den Rest, der nicht nationale Interessen berührt freigibt.

2020 soll der erste Start beginnen und es soll dann das System auch schon einsatzbereit sein. Das spricht für wenige Satelliten für ein operationelles System. Das Besondere wäre ein weltweit kohärenter Datensatz. Das bedeutet, alle Daten stammen von demselben Instrument und zum (nahezu) gleichen Zeitpunkt. Das verwundert, liefert aber wertvolle Hinweise auf die Bauweise der Satelliten. Nach russischen Foren scheint das Vorhaben schon sehr konkret zu sein, was mich auch bewegte mal darüber zu berichten. Vor allem weil Russland wieder andere Wege geht als der Westen.

Doch zuerst eine Erinnerung an die Vergangenheit. Beide Nationen begannen als erste militärische Satelliten Aufklärungssatelliten zu entwickeln, auf die auch der Großteil der Starts beider Nationen in den Sechziger Jahren beruhte. Die Technik war in beiden Lägern dieselbe, die Umsetzung jedoch jeweils eine andere. Ein Satellit nahm Gebiete auf großformatigen Film auf und dieser wurde dann mit einer Landekapsel geborgen. In Russland entwickelte das OKB-1 von Koroljow die Zenit Satelliten. Das waren eigentlich umgebaute Wostokkapseln, bei denen man anstatt eines Kosmonauten eine Kamera in die Kapsel einbaute. Mit diesem „Trick“ konnte man die Militärs überzeugen Wostok zu entwickeln – denn an bemannter Raumfahrt hatte das Militär eigentlich kein Interesse. Russland setzte die Zenit-Systeme sehr lange ein. Es gab drei Generationen. Relativ spät setzte man wie die USA auf Satelliten mit elektronischen Bildaufnehmern. Als die Sowjetunion sich öffnete, vermarktete man die Aufnahmen der Satelliten im Westen. Sie fanden rege Abnehmer, weil sie besser waren als das zivil verfügbare Material, das damals von Landsat oder SPOT verfügbar war. Ich kann mich noch an eine 14-teillige-CD-Serie „D-SAT“ erinnern, die auf diesen Aufnahmen beruhte. Die militärische Natur war unübersehbar. So waren die Auflösung rund um einen Bundeswehrflugplatz deutlich besser als einige Kilometer weiter. Mit dem Zusammenbruch der Sowjetunion brach diese Serie ab. Russland stellte auch viele andere Satellitenprojekte ein, darunter welche mit CCD-Sensoren.

Auch im Westen gab es eine Zäsur. Die USA setzen heute weniger auf eigene Aufklärungssatelliten – zumindest im sichtbaren Bereich. Satelliten, die im Infraroten arbeiten oder Radar nutzen, werden nach wie vor gebaut – sondern nutzen kommerzielle Satelliten. Die Ersten dieser „Zivilspäher“ starteten in der zweiten Hälfte der Neunziger Jahre. Inzwischen ist ihre Auflösung von 100 auf 31 cm gesunken. Das Militär und NRO ist heute auch der Hauptkunde von Digiglobe der größten Firma, die diese Satelliten betreibt.

Doch diese Satelliten haben auch Nachteile. Für einige Kunden ist wichtiger als eine hohe Auflösung, das man kohärentes Bildmaterial bekommt. Das bedeutet, man möchte ein Gebiet mit demselben Instrument zur gleichen Zeit beobachtet haben. Solche Kunden sind vor allem institutionelle Kunden. Die ESA überwacht so die Agrarwirtschaft. Macht Ernteprognosen und überwacht ob Nutzungseinschränkungen eingehalten werden. Deutschland macht zu einem bestimmten Zeitpunkt eine Waldinventur, bei der man den gesamten Wald in Deutschland auf kranke Bäume untersucht. Die UNO screent regelmäßig große Gebiete, um Brandrodungen und andere menschengemachte Umweltveränderungen zu überwachen. Alle brauchen keine extrem hohen Auflösungen und alle möchten sehr große Gebiete überwachen.

Dafür eignen sich die Satelliten von Digiglobe nicht. Sie bieten hohe Auflösungen, doch die erfasste Fläche ist begrenzt. Der neueste Satellit, Worldview 3 kann zwar aufnahmen mit 0,31 m Auflösung anfertigen, aber er erfasst maximal 680.000 km² am Tag. Wöllte er so die ganze Erdoberfläche, erfassen, so bräuchte er dazu 250 Tage. Begrenzend ist vor allem die Datenrate und Datenspeicherkapazität. Worldview 3 kann auf dem Satelliten 2200 GBit speichern und die Daten mit 1200 Mbit/s übertragen. Das ist viel, aber der Satellit hat weder eine dauernde Funkverbindung noch die Möglichkeit, kontinuierlich Daten zu erfassen. Es gibt einen Streifen, der erfasst wird, bis der lokale RAM-Speicher voll ist und dann wird er in eine SSD übertragen. Die Datenmenge ist enorm. Worldview erfasst pro Sekunde einen 13,1 km breiten Streifen. Bei einer Geschwindigkeit von 7 km/s relativ zum Boden sind das 100 km² für die man bei 0,31 m/Pixel rund 1 Milliarde Pixel pro Sekunde abspeichern muss. Zu der Datenmenge des monochromen Sensors kommen dann noch die anderen niedriger aufgelösten Sensoren, sodass die Gesamtdatenmenge bei rund 1,8 Gpixel pro Sekunde liegt. Jedes Pixel hat 12 bis 14 Bit für den Helligkeitswert. So kommt man auf eine Datenmenge von rund 3 GByte/s. Das geht derzeit nur in einen RAM-Speicher. Eine SSD ist dazu um den Faktor 5-10 zu langsam (und als der Satellit konzipiert wurde, war die Technik noch langsamer).

Russland dürfte Probleme haben, diese Datenmenge direkt zu übertragen. Zwar liegt das Land nahe am Nordpol, könnte also dort Empfangsstationen aufbauen, die ein Satellit mindestens einmal pro Umlauf passiert. Doch wie kommen dann von dort die Daten zu den Rechenzentren? Internetverbindungen sind in die Arktis keine verlegt und Hochgeschwindigkeitsdatenverbindungen zu geostationären Satelliten hat Russland ebenfalls nicht. Dazu kommt, dass das Land bei der Elektronik hinterherhinkt. Gerade erst hat man den Bordcomputer der Sojus-Kapsel erneuert. Er leistet nun 8 MIPS und hat 2 MByte Speicher – das sind die Leistungen eines 386-er PC aus dem Jahre 1986. Phobos-Grunt ging 2011 verloren, weil man nicht weltraumqualifizierte kommerzielle Komponenten verwendet, die dann prompt ausfielen.

Russische Foren gehen, soweit ich dies mit Google-Translator verstanden habe von Folgendem aus:

Russland greift das alte Zenit-Konzept auf, man spricht auch von „Zenit 4“, als vierter Generation, diesmal aber mit der Sojus als Startgefährt. Ab 2018 braucht Russland weniger Sojus und Progress um die Internationale Raumstation zu versorgen, da dann die Amerikaner ihre Astronauten selbst starten und auch CRS-2 mehr Fracht zur ISS bringt und man keine Fracht mehr bei den Progress bucht. Stattdessen wird es vier Zenit Missionen pro Jahr geben. Die Zenit-Satelliten sind umgebaute Sojus-Raumschiffe. In der Wohneinheit gibt es eine Reihe von Fenstern, an denen Teleskope angebracht sind. Sichtbar sind mindestens sechs Fenster, jedes etwa 30 bis 35 cm groß. Sie müssen, da die Sojus die Erde in einer erdnahen Umlaufbahn umrundet, nicht sehr groß sein, so auch die Teleskope. Aus 250 km Höhe reicht für eine Auflösung von 1 m ein Teleskop von 150 mm Durchmesser.

Ihre Daten werden per Kabel in die Rückkehreinheit übertragen, in der ein Speichersystem die Daten abspeichert. Nach einer relativ kurzen Mission, in der große Teile der Erdoberfläche erfasst werden, wird die Rückkehrkapsel wie bei der Sojus geborgen. Die Wohneinheit mit den Instrumenten geht verloren. Bedingt durch die Verlagerung in die Rückkehrkapsel kann Russland durch die starken Wände dort „normale“ sprich strahlungstolerante Elektronik verwenden, wie sie auch in Verkehrsflugzeugen eingesetzt wird.

Dazu passt die Ankündigung von IBM, dass man einen Entwicklungs- und Fertigungsauftrag von Russland erhalten habe für die Lieferung eines besonders vibrationsresistenten Data Centers erhalten habe, das auf der Intel SSD P3700 basiert. Eine kommerzielle Variante setzt bis zu 96 SSD in 4 Höheneinheiten mit einer Maximalkapazität von 160 TByte ein. Das würde bei der auf 1 m geschätzten Auflösung ausreichen, die gesamte Erdoberfläche abzulichten. Mit mindestens 6 Kameras soll ein Zenit 3 einen 200 km breiten Streifen erfassen und er könnte so innerhalb von 14 Tagen einmal die Erde erfassen. Zudem machen so viele SSD es möglich die Datenmenge direkt abzuspeichern, ohne einen RAM-Puffer zu benötigen.

Wahrscheinlich wird ein Teil der Daten über geostationäre Satelliten direkt übertragen. Das sind militärisch wichtige Daten. Doch der Großteil wird erst nach der Landung zur Verfügung stehen.

Das Konzept greift alte russische Konzepte auf. Das Beste aus dem zu machen, was man schon entwickelt hat und die eigenen Mängel zu kompensieren. In diesem Falle nutzt man die Sojus-Kapseln, die bewährt sind. Deren Abschirmung, die ja auch Kosmonauten vor Strahlung schützt, macht es dann möglich kommerzielle Elektronik einzusetzen. Dabei kann Russland auch leicht kommerzielle Exporte umgeben. Wenn das Land normale "Konsumer" Hardware nutzt, kann sie praktisch aus Hunderten von kommerziellen Serverherstellern sich etwas rauspicken und die fällt nicht unter das Embargo. Selbst wenn dann kann man ein Verbot leicht umgehen, und die Hardware eben über normale PC-Händler und Mittelmänner besorgen.

Vor allem scheint sich Russland auch Gedanken über eine Refinanzierung gemacht zu haben. Denn den Bedarf an niedrig aufgelösten Aufnahmen gibt es. Die ESA hat eigens dafür, dass Sentinel Programm ins Leben gerufen, dass drei Satellitenreihen und eine Reihe von Instrumenten vorsieht. Die NASA, die seit Jahren mit der Finanzierung ihres Earth Science Programms kämpft, hat nun einen Auftrag für die Wiederbefüllung von Landsat 7 vergeben – der Satellit wurde schon 1999 gestartet, einen Nachfolger bekam die NASA aber nicht finanziert. Google startet aus demselben Grunde – für Earth View und Google Maps kohärentes Material mit derselben Auflösung und denselben Sensoren zu bekommen derzeit seine SkySat Flotte. Drei sind schon im Orbit, weitere 6 sollen bis 2018 folgen. Heute bemerkt man den Mangel deutlich, wenn man bei Google Earth mal weg von den dicht besiedelten Gebieten geht, dann sieht man oft Streifen mit hoher Auflösung neben niedriger oder Farbwechsel, weil die Daten aus unterschiedlichen Quellen mit unterschiedlichen Sensoren stammen. Das Bild Links zeigt z.B. die Ariane 5 Startrampe, wo man deutlich sieht, das Google bisher auf verschiedene Quellen zurückgreift.

4.1.2017: 22 t Nutzlast oder doch nur 11 t?

Ach ja, es gibt wieder Neuigkeiten von SpaceX. Nun hat man nach eigener Aussage die Ursache gefunden. Wie schon früher verlautbart, lag es an einer Heliumdruckflasche, die durch den flüssigen Sauerstoff in Brand geriet. Das soll durch andere Befüllungsprozeduren in Griff zu bekommen sein. Ich gebe gerne zu, das Problem ist zu speziell für mich, selbst als Chemiker, dafür muss man viel Ahnung von der Reaktionsfähigkeit von flüssigem Sauerstoff haben. Meine eigenen Erinnerungen an die Chemievorlesung lehren mich da, vorsichtig zu sein. Flüssiger Sauerstoff unterschiedet sich signifikant im Reaktionsvermögen von normalem Sauerstoff. So kann man mit einer Zigarre getaucht in flüssigen Sauerstoff schneller als mit jedem Schneidbrenner ein Stahlblech durchtrennen. Aber wir haben ja gottseidank im Blog genügend Fachleute, die sich jahrelang mit der Kryochemie beschäftigt haben ;-)

Ich sage daher auch nichts zu der Idee, dass es am unterkühlten Sauerstoff liegen könnte. Meiner Ansicht nach müsste es auch beim normalen Treibstoff passieren. Zum einen ist der schon sehr kalt und vor allem ist das flüssige Helium noch deutlich kälter, sodass auch hier Sauerstoff zu Eis ausfrieren kann. Die Firma sagt ja nichts dazu, aber meint durch Änderung der Befüllung, die Sache in den Griff zu bekommen.

Doch darum geht es in dem Blog nicht. Es geht um die Ankündigung, nun ab dem 8.1.2017 neue Starts durchzuführen.

Die Tendenz zu mehr Starts ist ja deutlich gegeben: 2014 6 Starts, 2015 ebenfalls und 2016 schon 8. Dabei nur zwei Totalverluste. Mit etwas Glück erreicht die Falcon 9 in einigen Jahren die Startrate und Erfolgsquote der Proton.

Der Kunde diesmal ist ein großer: Iridium. Die Firma war Pionier bei der mobilen Kommunikation über Satellit und startete um die Jahrtausendwende zahlreiche erdnahe Kommunikationssatelliten. Das Geschäftsmodell ging jedoch nicht auf. Man setzte auf einen Kundenstamm, der überall auf der Erde mobil telefonieren will und dies entsprechend honoriert. Dieser Kundenstamm war erheblich kleiner als gedacht. Vor allem machte der Firma der rasante Ausbau von Mobilfunknetzen auch in Entwicklungsländern zu schaffen. Die Lücken auf der Landkarte ohne Empfang wurden schnell kleiner. Zeitweise war die Firma im Insolvenzverfahren und das Militär übernahm die Satellitenflotte. Nach Reorganisierung gelang es, die Gelder für eine Modernisierung der Flotte aufzutreiben. Trotzdem viel Spielraum hat die Firma nicht. So buchte sie sehr frühzeitig SpaceX als Launch Service Provider. Einfach weil es keine Alternative zur Firma gab. Woanders wäre es zu teuer geworden.

SpaceX wird 70 der 81 Iridium Next Satelliten starten. Meist jeweils 10 Satelliten pro Start so wie beim nächsten Start am Sonntag. Der ursprüngliche Vertrag hat einen Umfang von 492 Mill. Dollar. Er wurde schon am 16.6.2010, kurz nach dem Jungfernflug der ersten Falcon 9 abgeschlossen. Damals noch für den Start auf einer „Block I“ Falcon mit einer Nutzlast von 10,45 t. Dafür sollten die Ersten sie schon Anfang 2015 in den Orbit gelangen. Das war angesichts der Vorbuchzeit von 5 Jahren (üblich sind 1-2 Jahre) zu schaffen, okay, es wäre bei jedem anderen Launch Service Provider zu schaffen. Aber ebenso wie ein Päckchen vom Billiganbieter aus China etwas länger unterwegs ist, dauert es eben auch beim Billiganbieter SpaceX etwas länger. 2 Jahre Verzögerung sind da im Bereich des Normalen.

Was mich an dem neuen Start verwundert ist das Bahnregime. Jeder Satellit soll in einer 625 km hohe polaren Umlaufbahn ausgesetzt werden. Dort nutzt er seinen eigenen Antrieb, um die Bahn in die operationelle Bahn in 780 km Höhe anzupassen. Dabei wiegt die gesamte Nutzlast mit Dispenser soll „mehr als 20.000 Pfund“ wiegen. Das sind, wenn man es in Kilogramm umrechnet, rund 9.100 kg. Die Nutzlast der Falcon 9 in einen LEO beträgt 22 t nach SpaceX Webseite. Eine Abnahme um mehr als 50% für eine polare Bahn? Ich halte das für sehr hoch. Normal sind etwa 20% Nutzlasteinbuße. Bei sehr schweren Oberstufen kann es auch mehr sein. Doch selbst bei der Vega mit einem schweren AVUM sind es nur 32% Einbuße, nicht 58% wie bei der Falcon 9. Doch da die Oberstufe wiederzündbar ist, kann man es ausrechnen.

Der Geschwindigkeitsbedarf für die höhere Umlaufbahn setzt sich aus zwei Komponenten zusammen:

Zusammen sind das 655 m/s.

Würde die zweite Stufe diese Mehrgeschwindigkeit alleine aufbringen, so würde die Gesamtnutzlast (bestehend aus Satelliten, Dispenser und leerer Oberstufe) um Exp(655/348/9,81) = 1,211 sinken, also rund 21%. Da die Oberstufe gleich schwer bleibt, sinkt die eigentliche Nutzlast stärker. Doch um 58% abzusinken, müsste die Oberstufe eine extrem hohe Leermasse haben. In Wirklichkeit sind die 21% eine Obergrenze, da durch die leichtere Nutzlast auch die erste Stufe eine höhere Abtrenngeschwindigkeit hat, also sich die Arbeit auf beide Stufen verteilt. Bei einer auf 4,53 t geschätzten Oberstufenmasse kommt man nie auf eine so große Nutzlastabnahme. Bei meinem Modell der Falcon 9 (die Daten von SpaceX reichen ja nicht für eine korrekte Berechnung aus) komme ich auf 17,6 t Nutzlast in diesen Orbit. In 780 km höhe sind es nur wenig mehr, nämlich 737 m/s. So frage ich mich, warum man die Satelliten nicht gleich im Endorbit aussetzt. Das spart schließlich Treibstoff und bei fast allen Satelliten ist der verfügbare Treibstoff die Ressource, welche die Lebensdauer begrenzt. Die ESA hat gerade Metop A in einen neuen Orbit verschoben, damit er länger betrieben werden kann. Der Treibstoff würde noch gut reichen, aber die ESA will nun alle Satelliten am Ende ihrer Lebensdauer deorbitieren und dafür braucht man auch Treibstoff. Als Metop A gestartet wurde, gab es die Vereinbarung noch nicht. Iridium scheint dies nicht vorzuhaben, den Pläne, die alten Satelliten, die nun durch Iridium Next ersetzt werden zu deorbitieren, gibt es nicht. Doch selbst dann würden die rund 80 m/s Geschwindigkeitsänderung, die man so gewinnt, mehrere Jahren Betriebszeit entsprechen – in einer erdnahen Bahn ist der Treibstoffbedarf für Bahnanpassungen klein, viel geringer als im geostationären Orbit. Das meiste entfällt auf Lageänderungen, nicht Bahnkorrekturen.

Meine Vermutung: Die Falcon 9 könnte durchaus mehr Nutzlast transportieren. Iridium hat die Satelliten so ausgelegt, dass sie erst in dem ersten Orbit gelangen und ihn dann selbst anheben. Bei der Falcon 9 (erste Version) wären sie sonst nicht in Zehnerpack zu transportieren. Der Abschluss des Vertrages und damit auch die Auslegung der Satelliten war auf diese Trägerversion ausgelegt. Die Vorgehensweise ermöglicht dann auch den Einsatz anderer Träger. Bei der Dnepr sinkt die Nutzlast mit steigender Bahnhöhe z. B. stark ab. Doch da Iridium nie von SpaceX wechselte, ist es mir ein Rätsel, warum man sie nicht gleich im Zielorbit aussetzt, wenn man die Möglichkeit hat.

Für Iridium zu wünschen ist das bei 10 Satelliten pro Starts alle klappen. Das Risiko ist nach den letzten zwei Jahren ja gegeben: 2015 sechs Starts, ein Totalverlust, 2016 acht Startversuche, ein Totalverlust. Ein Iridium Start wird auch Grace Follow On (GFO), eine Nachfolgemission der DLR-NASA Mission Grace starten. Es bleibt zu hoffen das zumindest diese glückt. Das DLR zeigt ja typisch deutsche Tugenden: „Geiz ist Geil“. Anstatt Starts auf Trägern zu buchen die in Europa hergestellt werden sucht man die billigste Startmöglichkeit. GFO kann man auch mit einer Vega starten. Jeder Satellit wiegt nur 600 kg und gelangt in einen 490 km hohen Orbit. Damit ist er kompatibel mit der Vega.

Mal sehen wie viele Starts es 2017 werden. Klakow hat ja am 9.6 2015 für 2015 12 Starts und für 2016 24 prognostiziert. Da ist er wohl etwas daneben gelegen. Er hat wohl zu sehr SpaceX geglaubt. Seit einigen Monaten sind ja die „Fake-News“ im Gerede. SpaceX ist in meinen Augen der Erfinder der „Fake News“. Die meisten ihrer Ankündigungen sind reine Phantasieangaben. Im August 2011 kündigte man an, von 2012 ab 400 Triebwerke pro Jahr zu produzieren. In den fünf Jahren von 2012 bis 2016 hat man so 2000 Triebwerke gebaut, aber in 30 Starts nur 300 verbraucht. Es müssen ganze Hallen voll mit Triebwerken bei SpaceX rumstehen – wenn denn die Angabe stimmen würde. Den im Februar 2016 baute man noch 6-8 Cores pro Jahr und wollte die Produktion auf maximal 18 ausbauen. (By the Way, mit 6.8 Cores kann man nicht mal die Starts abwickeln die man schon 2015 in den Auftragsbüchern hatte). Vielleicht jagt die Firma auch ihre Raketen selbst hoch, damit nicht auffällt, das sie gar nicht die Raketen haben, um alle Nutzlasten zu starten? So finanzieren die Kunden die Starts vor, ds Geld kann man in den Ausbau der Produktion stecken, um überhaupt die Raketen zu bauen. Da dann das Geld fehlt, um die Raketen herzustellen, wird auch klar, warum man so auf Wiederverwendung setzt und dann nur einen Preisnachlass von 10% gewährt. Das ist schlüssig, anders als die Marspläne.

Als Ausgleich für die Fake News bleiben sie dafür technische Grunddaten schuldig. Nicht mal in Dokumenten wie dem „Users Guide“ für Kunden. Man könnte ja sonst zumindest die Nutzlastangaben nachprüfen. So verwundert es nicht das ein SpaceX-Investor und Mitgründer nun im Beraterstab von Donald Trump sitzt.

3.1.2017: Buchkritik: W.P. Mischin: „Sowjetische Mondprojekte“

Das relativ dünne Buch (127 Seiten) habe ich mir im August gekauft. Doch ich habe einige Zeit gebraucht, bis ich es ganz durchgelesen habe. Erst vor weihnachten bin ich fertig geworden. Warum, das denke ich wird noch in der Rezension deutlich.

Zuerst einmal ist der Autor hochkarätig: Wassili Pawlowitsch Mischin war nach dem Tode von Korlojow der Leiter des OKB-1, des wichtigsten Kombinates in der russischen Raumfahrt. Er war damit für das Mondprojekt N-1 verantwortlich. 1974 wurde er vom zuständigen Minister angesetzt und das OKB-1 mit Gluschkos OKB zu „Energija“ fusioniert und Gluschko bekam die Leitung. Er stellte dann das Programm rasch ein. Schon das findet man aber nicht im Buch. Damit wäre Mischin, der wohl Beste der dieses Mondprojekte beschrieben könnte. Inzwischen gibt es auch die Memoiren von Boris Tschertok, die man am besten auf der NASA kostenlos herunterlädt „Rockets and People“. Die bei Amazon verfügbare deutsche Übersetzung scheint wohl maschinell mit Hilfe eines Programms erfolgt zu sein, wenn ich denn Kommentaren folge.

Der Inhalt

Das Buch beginnt vor den ersten Mondprojekten, als Mischin nach Deutschland reist, um dort die V-2 Fertigung zu untersuchen. Es spannt sich ein Bogen über den Nachbau der V-2 als R-1, über die verbesserte Version R-2 bis zur N-1. Die meisten Raketen werden nur gestreift. Etwas mehr Würdigung erhält nur die R-1 und die damit verbundenen Projekte Sputnik, Luna und Wostok und eben die N-1. Klar ist das bei 127 Seiten hier jedes Projekt nicht detailliert beleuchtet wird. Zudem ist von dem Inhalt etwas mehr als ein Drittel in Form von Fotos, Grafiken und einigen Tabellen.

Was das Lesen enorm schwer macht, ist die Sprache von Mischin. Wahrscheinlich hat er diese in Sowjetzeiten verinnerlicht. Es ist eine Sprache mit zahlreichen Spezialbezeichnungen, langen Sätzen und unemotionaler Ausdrucksweise und einem Politbüro-Jargon. Ich fühlte mich irgendwie an die Nachrichtenmeldungen in der „Aktuellen Kamera“ der DDR erinnert, wo die Sprecher auch so einen komischen Stil hatten. Beispiel: „Die Staatliche Komission überprüfte nach ihrem Eintreffen in Nordhausen den Arbeitsplan der zwischenbehördlichen Organisation des ZK des WKM(b) zum Studium der deutschen Raketentechnik“. Der Übersetzer hätte den Lesern die Arbeit wenigsten etwas erleichtern können, indem er die zahlreichen Abkürzungen wie NKW (Volkskommissariat für Bewaffnung) oder auch FRTW (Flüssigkeitsraketentriebwerk) ausgeschrieben hätte. Mischin wendet dieses Vokabular auch auf das Ausland an wie das der „Vollautomatischen kosmischen Raketenkomplexen“ (gemeint ist ein Launchpad). Auch hier hätte ich erwartet, dass der Übersetzer eingreift und hier die in den USA übliche Bezeichnung für die entsprechenden Startbasen (Launchpad oder Launchcomplex) verwendet. Deutlich wird das auch am Anfang in Deutschland wo Mischin einfach jeder Gruppe, die er irgendwo findet, ein „Institut“ zuordnet. So gab es aber in Bleicherrohde kein Institut, das war nur ein Ort, wo man nach der Evakuierung von Peenemünde die Mitarbeiter von Peenemünde verlagerte.

Doch zum Inhalt. Der ist erstaunlich kompakt. Mischin schreibt viel über Organisation: wer wo beteiligt war. Dazu noch einiges über Geschichte, aber wenig über die Technik. Ich persönlich habe nichts gefunden, was ich nicht vorher schon aus anderen Quellen wusste. Es gibt einige Seitenhiebe auf Gluschko, der sich selbst ja als den Gott des russischen Triebwerksbaus sieht. So hatte er 1942 schlüssig nachgewiesen, dass man keine Brennkammer für flüssige Treibstoffe bauen könne, die einen höheren Schub als 300 kg hatte. Drei Jahre später konnte ein deutsches Raketentriebwerk in Aktion sehen, das 25 t Schub hatte … (Später, das steht bei Tschertok, wies er noch nach das man mit Wasserstoff die Nutzlast nicht steigern kann...).

Eine ist das buch nicht: eine neutrale Darstellung der Geschichte. Es ist eine einseitige Darstellung in der Koroljow zum Übervater erhoben wird. Komplett totgeschwiegen werden Misserfolge. Nach der Raumsonde Luna 3 kommt gleich die Luna 9. warum? Luna 4-8 und noch etliche schon beim Start verlorene Sonden sollten wie Luna 9 weich auf dem Mond landen und scheiterten. Auf die Kopplung von Kosmos 238 und 247 als Vorbereitung für Sojus folgt die Mission von Sojus 2 und 3. Sojus 1 mit dem Tod Kamarows scheint es nie gegeben zu haben. Eine Auseinandersetzung mit Fehlschlägen gibt es nur bei der N-1, wo er auch nicht drum herum kommt. Doch auch dort nur rudimentär. Vieles über die Hintergründe, wie die Kämpfe um die Mittel oder die Konkurrenz der Konstrukteure erfährt man auch nicht. Dabei hätte gerade hier Mischin einiges beitragen können. Mischin ist schlau genug über seine Verdienste wenig zu schreiben. Schon das Vorwort von Akademiemitglieds Frolow liest sich nach einer Aufzählung seiner Verdienste und Orden, nicht aber nach einem Kommentar zum Buch. Woanders steht in einem Vorwort eher so was „Schließt xyz eine Lücke“ oder „Bringt xyz dem Leser die Zeit nochmals nahe“. Hier steht über das Buch im Vorwort gar nichts drin. Nach dem was ich von anderen über Mischin gelesen oder gehört habe, scheint er oft auf Konfrontationskurs gegangen zu sein und war nicht sehr beliebt. Vielleicht auch ein Grund, warum er das Buch selbst geschrieben hat, er hätte jemanden dazu nehmen sollen, der es redigiert und vor allem Vorschläge macht, was den Leser wirklich interessieren könnte.

In der Mitte und hinten gibt es zwei Blöcke mit Skizzen, Grafiken und Tabellen. Die Grafiken und Fotos sind extrem grob aufgelöst und in reinem Schwarz-Weiß als hätte jemand alte Zeitungen eingescannt. Die Qualität ist daher nur mangelhaft zu nennen. In den Tabellen findet man einige Daten zu den Raketen, aber auch nur unvollständig und in einer ungewöhnlichen Weise so erfährt man nicht, was die erste Stufe wiegt, aber wie viel die Rakete beim Start und beim Ausbrennen der ersten Stufe und Start der Zweiten wiegt. Aus den Daten muss man dann Stufenvoll- und Leermasse errechnen.

Das sind auch fast die einzigen technischen Angaben. Wer die sucht, wird enttäuscht sein. Das liegt aber an der Funktion von Mischin. Zwar bekamen die Leiter der OKB in der Sowjetunion die Bezeichnung „Chefkonstrukteure“ und oftmals wurde der Name als Verantwortlicher für ein ganzes Produkt genannt (z.B. „Kuznevows Triebwerke“ für die N-1 – natürlich hat Kusnezov nicht alle Triebwerke selbst und alleine gebaut). In Wirklichkeit haben diese Chefkonstrukteure mit der Technik gar nichts zu tun. Sie waren das was wir als Manager bezeichnen würden – verantwortliche für Zeitpläne, die Beschaffung von Ressourcen und Gelder. Tschertok schreibt in seinen Memoiren, dass er es nicht glauben wollte, das Wernher von Braun großen technischen Sachverstand hatte und sich auch mit der Technik seiner Saturn selbst befasste. Er hielt das für einen Mythos, der verbreitet wurde. Nachdem Zeitzeugen ihm bei einem Besuch bei der NASA versicherten, dass dem aber so war, hielt er das für typisch deutsch in einer Mischung von 150%-Einarbeitung und keine Verantwortung abgeben.

Mein Resümee

Ich würde mir das Buch nicht nochmals kaufen. Man erfährt nichts Neues, man bekommt eine geschönte Version der Geschichte erzählt, nicht die komplette Wahrheit und es fehlen für mich wichtige technische Details. Dafür ist es wirklich sehr schwer und holprig zu lesen. Wer englisch lesen kann, sollte Tschertoks Memoiren lesen. Sie sind ehrlicher, gut übersetzt und flüssig zu lesen. Allerdings sind es auch vier Bände, die ein Vielfaches dieses kleinen Büchleins umfassen.

5.1.2017: Zum Kuiper Belt und in die Heliosphäre

Ich greife heute ein Thema auf das ich aber bisher nur schätzungsweise berechnen konnte, inzwischen kann ich durch Verbesserungen meines Programmes genau zu berechnen. Es geht um eine Sonde die möglichst schnell möglichst weit von der Sonne entfernt sein sollte.

Früher habe ich als Eoinsatzzweck die Erforschung der Hiolpause genannt, also der Region in der der Sonnenenwind in das intergelaktische Medium übergeht. Deise Region haben die Voyagersonden inzwischen erreicht. Sie liegt etwa 150 AE (rund 22500 Mill. km) von der Sonne entfernt. Für eine gute Vermessung braucht man mindestens drei Sonden: eine die in Bewegungsrichtung der Sonne gestartet wird, eine entgegengesetzt und eine senkrecht dazu.

Inzwischen gibt es noch eine zweite mögliche Einsatzmöglichkeit die Passage eines Kuipergürtelobjektes. Diese liegen auch in dieser Entfernung.

Das Problem: Voyager brauchte zwei Swing-Bys und rund 30 Jahre um dorthin zu kommen. Ein Start mit einer Atlas V für eine Nachfolgesonde dürfte heute nur für eine Sonde die Teilchendetektoren hat kaum finanzierbar sein,

Nun habe ich als Alternative eine sonde zuerst einmal mit der Vega gestartet. Die hat nur eine Nutzlast von 2.400 kg in einen 400 km hohen kreisförmigen Orbit. So muss man ionentriebwerke einsetzen um die Sonde überhaupt zu Jupiter zu bekommen.

Das Sondengewicht habe ich zu 700 kg festgelegt. Das entspricht dem Gwwicht von Voyager ohne Hydrazintank. Die Lageregelung wird von den Ionentriebwerken durchgeführt. Statt den MMRTG werden GPHS-RTG mitgeführt, die mit 570 W eine etwas höhere Leistung haben.

Das Trockengewicht des Ionenantriebsmoduls orientiert isch nachd em verbauchten Teeibstoff, der erst nach Simulation feststeht. Ich errechnete einen verbauch von 945 kg. Dawn hatte 425 kg treibstoff bei einem Trockengewicht von 136 kg. Das entspricht einem Trockengewicht von 303 kg. Dazu kommen nodch die Solararrays, ver Flex-arrays von ATK mit je 5 m durchmesser für 30 kW Anfangsleistung. Diese wiegen bei 106 W/kg BOL weitere 283 kg. Etwa 100 kg kommen noch für Strukturen hinzu, bei Dawn war das Antriebssystem ja in die Sonde integriert. Das lässt dann eine Restmasse von 765 kg zu.

Die restlichen 65 kg werden auch genutzt und zwar für einen Niedrigenergieantrieb. Auch dies ist ein Ionenantrieb. Doch er arbeitet nur mit kleinem Schub. Der dahinter sthende Gedanke: Die Stromversorgung muss ausgelegt sein bis die Sonde nach 40 Jahren eine hohe Distanz erreicht. Bis dahin ist der Strom bei RTG aber auf die Hälfte abgefallen. So kann man 35 Jahre lang den überflüssigen Strom (im Mittel ein Viertel des Gesamtstroms) für ein kleines Ionentriebwerk nutzen. Bei 570 W Anfangsleistung sind dies 180 W, die bei einem gängigen Ionentriebwerk kann man in dieser Zeit 353 kg Treibstoff verbauchen. Hier stehen nur rund 50 kg zur Verfügung durch wenigstens diese sollen genutzt werden.

Die Mission gleidert sich in vier Phasen:

Dies habe ich in einem ersten Ansatz durchgerechnet:

Passage von Jupiter in 250.000 km Entfernung ergibt ide maximale Beschleunigung. Ohne weitere Aktionen wwäre die Sonde nach 39 Jahren 280 Tagen (das entspricht dem heutigen Daten nach dem Start von Voyager 1) in 18362 mill. Km Entfernung. Voyager 1 ist etwas schneller unterwegs und hat schon eine Entfernung von 20,535 Mill. Km erreicht.

Nun wird das Ionenantriebsnodul abgetrennt um Gewicht zu sparen und die 50 kg Ionentreibstoff ab Jupiter genutzt um die Sonde weiter zu beschleunigen. Nach 11 Jahren in 6200 km Entfernung sind auch diese 50 kg Treribstoff verbaucht. Das verkürzt die Reisedauer beträchtlich. Nun erreicht die Sonde schon nach 36 Jahren 223 Tagen die gleiche Entfernung wie Voyager 1, ist also schneller unterwegs. Die Sonde hat eine Geschwindigkeit von 18,362 km/s. Voyager 1 eine von 17,027 km/s. Das bedeutet man kann das Ziel erreichen. Allerdings ohne Sicherheitsmargen. Das ist also mit der heißen Nadel gestrickt, obwohl ich das leistungsfähigste Ionentriebwerk genutzt habe (im Sinne vom hohem spezifischen Impuls um den Treibstoffverbauch zu reduzieren).

Die Abtrennung des separaten ionenantriebsmoduls könnte früher erfolgen und dann schon mit dem Betrieb des Low-Energie Ionentriebwerks begonnen werden. Das wäre eine optimierung, doch wegen fehlender Reserven habe ich dies nicht untersucht.

Option 2

Option 2 nutzt den nächst größeren Träger, eine Sojus 2B. Diese kann bei 8,3 t Nutzlast gleich 2 Sonden in einen 400 km Orbit transportieren

6.1.2017: Teure Nachbesserungen

Das heutige Thema beschäftigt sich mit der europäischen Raketenpolitik. Obwohl die sich von der vieler anderer Nationen darin unterscheidet, dass man regelmäßig neue Rakete entwickelt ist, doch eines auffällig: die Nachbesserungen oder wenn man es anders ausdrücken will: Performance Steigerungen.

Die USA machen mehr Starts als Europa, doch sie kamen von 1960 bis zur Jahrtausendwende mit drei Basismustern aus: Der Thor-Delta Serie, Atlas und Titan. Diese wurden durch Oberstufen, Booster oder leistungsfähigere Triebwerke in der Leistung gesteigert. Am stärksten gelang dies bei der Delta, deren erstes Modell die Delta-A 291 kg in einen niedrigen Erdorbit und 45 kg in den GTO transportieren konnte. Das letzte Modell, die 7925H dagegen 5648 kg in einen LEO und 2.27 kg in einen GTO. Eine Steigerung der Leistung um den Faktor 20!

Demgegenüber entwickelte man in Europa immer neue Trägerraketen:

Wenn nun einer fragt: Was ist denn mit der Ariane 2,3 und 4? Um genau diese geht es in diesem Blog. Es ist eine europäische Spezialität eine Trägerrakete zu entwickeln, die man nur wenige Male in der Ursprungskonfiguration einsetzt, und sie dann durch eine verbesserte Generation ersetzt:

Ein geschichtlicher Rückblick

Die Europa I war gedacht für den Start von Forschungssatelliten. Mehr als zu dem Start von Testsatelliten (wobei von den drei Starts auch keiner gelang) kam es aber nicht, denn noch während die Europa I entwickelt wurde plante man die Europa II und III. Bei dem Übergang von der Europa I zur II hielten sich die Änderungen noch in Grenzen: Es gab etwas schubstärkere Triebwerke in der ersten Stufe, diese nahm daher etwas mehr Treibstoff auf. Die dritte Stufe musste verstärkt werden, weil eine neue vierte Stufe hinzukam, die man für GTO Missionen brauchte. Dazu kam ein neuer Bordcomputer. Letzterer war denn auch für den Fehlstart der ersten und einzigen Europa II verantwortlich.

Es folgte die Ariane 1, die eigentlich aus einem Konzept für die Europa III hervorging. Denn auch die Europa II sollte Ende der Siebziger Jahre ersetzt werden und hätte so nur wenige Flüge absolviert (geplant waren etwa acht Starts). Sie sollte nur technisch nicht so modern sein und daher billiger umzusetzen sein. Doch schon, bevor die Ariane 1 an Weihnachten 1979 den Jungfernflug hatte, beschloss man die Ariane 2+3. Während der Entwicklung hatte man bei den Triebwerken aller drei Stufen den Schub der Triebwerke leicht gesteigert. Der Einbau dieser Triebwerke in die Ariane 1 und 1,5 mehr Treibstoff in der dritten Stufe ergab die Ariane 2 mit etwa 20% mehr Nutzlast. Zwei Feststoffbooster an der Ariane 2 dann die Ariane 3 mit nochmals 20% mehr Nutzlast.

Auch hier fand man ein neues System, bevor die erste Ariane 2 abhob: die Ariane 4 setzte eine verlängerte erste Stufe ein, die nun ohne Booster nicht mehr abheben konnte und zwei Typen von Boostern ein. Zum einen die Feststoffbooster der Ariane 3, nur etwas verlängert und zum Zweiten neue Booster mit einem Triebwerk, dem gleichen wie in der ersten Stufe, nur fest eingebaut. Ohne Booster musste man Treibstoff weglassen und hatte so sogar eine etwas kleinere Nutzlast als die Ariane 3. Mit den Boostern konnte man aber einen breiten Bereich von Nutzlasten von 2,6 bis 4,4 t abdecken.

Ariane 4 wurde dann bis 2003 eingesetzt – über 15 Jahren und 116-mal. Ariane 1-3 absolvierten dagegen zusammen nur 28 Starts,

Drei Jahre, bevor die erste Ariane 4 abheben sollte, wurde aber schon die Ariane 5 beschlossen. Damals als Bestandteil eines Dreierpakets bestehend aus der Trägerraketen Ariane 5, dem Raumgleiter Hermes und dem Forschungslabor Columbus, das damals noch aus drei Elementen bestand. Ohne diese Elemente hätte man wohl die Ariane 5 Entwicklung nicht genehmigt bekommen, hatte man doch gerade erst die Ariane 1 entwickelt und war in der Entwicklung der Ariane 4. Da braucht man nicht bald „noch“ eine Rakete, auch wenn die Ariane durch die lange Entwicklungszeit nicht vor Mitte der Neunziger Jahre einsatzbereit wäre. Das hatte Folgen: Das ursprüngliche Konzept war, das eine Rakete mit zwei Stufen: einer Kryogenen für GTO-Transporte, basierend auf dem Triebwerk, das auch in der Ariane 4 in der dritten Stufe verwendet wird und einer kleineren für LEO-Missionen. Da Columbus und Hermes LEO-Nutzlasten waren, und die neue Trakete aufgrund der fielen Neuentwicklungen teuer werden würde, genehmigte man nur die letztere Stufe. Dabei blieb es, obwohl in den ersten Jahren die Rakete substanziell geändert wurde. Da Hermes laufend schwerer wurde, wurde vor allem die Zentralstufe, aber auch die Oberstufe laufend schwerer. Für einen Schwenk gleich zur leistungsfähigeren kryogenen Stufe, konnte man sich aber nicht entscheiden.

Kaum hatte man mit V503 den ersten voll erfolgreichen Ariane 5 Start hinter sich, vergab die ESA dann ein Upgrade der Ariane 5, sodass die erste Version, nun Ariane 5G (G=Generisch) getauft, nur zehnmal eingesetzt werden sollte. Geändert sollte praktisch überall an der Rakete was: Die Booster erhielten mehr Treibstoff und die Hülsen wurden leichter. Die Zentralstufe bekam ein neues Mischungsverhältnis und damit auch 25 t mehr Treibstoff und ein neues Triebwerk. Die Oberstufe wurde durch eine neue ersetzt, nun wie schon 1985 geplant mit dem Triebwerk der Ariane 4. Dazu kamen Änderungen an der VEB und eine neue Doppelstartstruktur. Das neue Modell hieß nun Ariane 5 E. E für Evolution. Ursprünglich war sogar noch eine weitere Oberstufe geplant, mit einem neuen Triebwerk und der doppelten Treibstoffzuladung der ersten kryogenen Stufe. Doch als die erste Ariane 5E einen Fehlstart hatte wurden alle Mittel für deren Entwicklung für ein Rettungsprogramm benötigt und die Entwicklung erst 2011 wieder aufgenommen um dann zwei Jahre endgültig eingestellt zu werden.

Denn inzwischen hat die ESA die Ariane 6 beschlossen. Die hat zahlreiche Änderungen hinter sich und selbst ich als Raumfahrtkundiger frage mich, wofür man 4 Milliarden Euro für die Rakete braucht. Während die ersten Ariane 6 Vorschläge sich deutlich von der Ariane 5 unterscheiden ist die endgültige Konfiguration doch sehr ähnlich der Ariane 5: eine Zentralstufe mit dem Triebwerk der Ariane 5E, nur mit der kleineren Treibstoffzuladung der Ariane 5G. Eine Oberstufe, die stark der geplanten Oberstufe der Ariane 5 ähnelt mit demselben Triebwerk wie für diese Stufe. Die einzige Änderung ist, dass es anstatt zweier Booster von je 281 t Gewicht nun zwei oder vier von 135 t Gewicht gibt, man also einen großen durch zwei halb so schwere ersetzt hat.

Zwischendurch hat man die Vega entwickelt. Obwohl deren Entwicklung sehr viel länger dauerte, als geplant wird auch sie 2018 durch eine neue Version abgelöst. Sie verwendet den Booster der Ariane 6 als erste Stufe. Dieser ist rund 50% schwerer als die alte erste Stufe. Geplant ist als nächster Schritt dann das ersetzen der zweiten Stufe durch eine neue mit 20% mehr Treibstoff. So wird auch die Vega in der ersten Version nur 16 Starts durchführen, bis sie durch die Vega C ersetzt wird.

Mir stellt sich die Frage: Geht das nicht auch anders?

Dabei muss man die Thematik historisch und von der finanziellen Seite sehen. Historisch ist es so, dass die Europa I entstand, weil Europa auch eine eigene Trägerrakete haben wollte. Das war damals eine Prestigefrage. Dabei gab es aber auch handfeste nationale Interessen. England suchte nach einem Weg Kosten, für die selbst entwickelte und schon vor der Stationierung obsolet gewordenen Mittelstreckenrakete Blue Streak einzusparen. Frankreich erhoffte sich Impulse für die Entwicklung eigener militärischen Raketen. Deutschland wollte eine eigene Raumfahrtindustrie aufbauen. De Faktor gab es kaum Nutzlasten für die Europa I, sodass als man die ersten anspruchsvollen Forschungsmissionen und Telekommunikationssatelliten plante, es logisch war, die Europa I zu erweitern. Das war relativ billig und kostete 40 Millionen Dollar. Im Vergleich dazu hatte die gesamte Europa I Entwicklung 690 Millionen Dollar gekostet. Vor allem änderte man an der bestehenden Rakete kaum etwas sondern ergänzte um eine neue Stufe.

Ähnlich kann man den Sprung von Ariane 1 zur 2 sehen. Sie war obwohl konservativ gebaut, trotzdem technisches Neuland für Europa. Die Viking Triebwerke waren erheblich schubstärker als die vorher von Frankreich gebauten Triebwerke mit derselben Treibstoffkombination und sie waren die Ersten mit Turbopumpenförderung. Triebwerke mit Wasserstoff als Treibstoff hatte man vorher noch gar keine entwickelt. So legte man die Betriebsparameter, vor allem den Brennkammerdruck bewusst niedrig aus. Während der Entwicklung wurde der laufend gesteigert und so konnte man bei Ariane 2 einfach die Triebwerke auswechseln. Dabei setzte man auch eine etwas abgeänderte Treibstoffmischung ein, nachdem Verbrennungsinstabilitäten beim zweiten Flug zu einem Fehlstart führten. Die Feststoffbooster der Ariane 3 erlaubten es, die Nutzlast soweit zu steigern, dass Ariane 3 zwei Satelliten der Delta-Klasse transportieren konnte, während Ariane 2 die Nutzlast der neuesten Atlas Centaur hatte. Damit hatte man an die US-Konkurrenz aufgeschlossen. Es war die Wende vom Anspruch auf „eigenständigen Zugang zum Weltraum“ zum Verdienen von Geld mit Starts. Mit kosten von 144 Mill. Euro (zum damaligen Wechselkurs) oder 13% der Ariane 1 Entwicklungskosten war dieses Programm relativ preiswert. Das galt auch für die Entwicklung der Ariane 4. Bei, der man einfach die schon vorhandenen Elemente neu kombinierte. Auch das kostete nur 206 Millionen Euro. Mit einem kostenlosen Jungfernflug und der neuen Startrampe ELA 2 kam man auf 476 Mill. Euro, etwa 50% der Ariane 1 Entwicklungskosten, hatte dafür aber die doppelte Nutzlast der Ariane 1 und für 15 Jahre Ruhe – wenn man die Ariane 5 nicht beschlossen hätte.

Die Ariane 5 hätte man bei Entwicklungskosten, die schließlich dreimal so hoch liegen sollten, wie die von Ariane 1-4 zusammen, sicher keine Zustimmung bekommen, wenn man nur eine Trägerrakete für kommerzielle Transporte brauchte. Auch für alle geplanten europäischen Forschungssatelliten war die Ariane 4 noch leistungsfähig genug. (Würde sie heute noch fliegen, nur die ATV wären zu schwer für die Ariane 4). So wurde die Ariane 5 auf LEO-Transporte und das geplante bemannte europäische Raumfahrtprogramm optimiert. Die grundsätzliche Idee die GTO-Oberstufe später zu bauen, ist ja an sich nicht falsch. Nur machte Hermes einen Strich durch die Rechnung. Hermes sollte mal 17 t wiegen wurde aber 23 t schwer. Eine Zeit lang folgte dem die Ariane 5, indem man Stufen verlängerte. Das ging durch den hohen Schub der Feststoffbooster. Das warf aber Probleme auf, wenn nun eine weitere schwere Oberstufe hinzukam. Die erste Version hatte eine Zentralstufe mit 120 t Treibstoff und eine Oberstufe mit 4 t. Die Letzte dagegen eine mit 158 / 9,7 t. Eine größere Oberstufe und schwerere GTO-Nutzlast erforderte mehr Schub in der Zentralstufe. Das Triebwerks-Upgrade wurde erheblich teurer und entpuppte sich bald als eine komplette Neuentwicklung. Das Ariane 5 Evolution Programm wurde so relativ teuer und erreichte schon ohne die neue kryogene Oberstufe 50% der Ariane 5 Entwicklungskosten. Wahrscheinlich wäre es besser gewesen, wie bei Ariane 4 einfach die alte Zentralstufe beizubehalten und etwas Treibstoff in dieser wegzulassen. Das hätte man durch eine bessere Oberstufenkonstruktion ausgleichen können. Die derzeitige EC-A hat ein ziemlich hohes Trockengewicht, auch verursacht, weil die Stufe 10-mal weniger Treibstoff als die Zentralstufe hat, aber denselben Durchmesser. Eine Stufe mit 3 anstatt 5,4 m Durchmesser wäre besser gewesen. Dafür hätte man die Nutzlastverkleidung verlängern können, sodass diese wie bei der Atlas die Oberstufe mit umgibt. Das hohe Trockengewicht bleibt auch bei der ECB oder Ariane 6 Oberstufe erhalten denn auch hier ist die Zentralstufe 5 m breit. Die ersten Entwürfe für die Ariane 6 waren hier mit 4 m Durchmesser erheblich besser. Wahrscheinlich will die Industrie aber möglichst viel Gewinn machen, und wenn man den Durchmesser nicht ändert, kann man die bisherigen Maschinen weiter verwenden ….

Schon die Ariane 5 Evolution war meiner Ansicht nach unnötig teuer. Die neue ECB-Stufe sollte mindestens 1,5 Milliarden Euro kosten – viel Geld nur für eine neue Stufe.

Als die Vega entwickelt wurde, konnte man sich auch nicht so richtig entscheiden. Deutschland war schon nicht dabei, weil das DLR die Rakete für überflüssig hielt. Italien hoffe darauf, dass man die Booster der Ariane 5 durch Segmente der Vega ersetzen würde (drei Vega Segmente ersetzen einen Ariane 5 Booster) und so haben rein zufällig die Vega Erststufe und die Ariane 5 Booster denselben Durchmesser und die Anlagen bei Avio sind so groß ausgelegt, dass man auch die Ariane 5 Booster dort fertigen könnte. Es kam nicht dazu, obwohl ein Ersatz der Booster bei Konzepten für die Langzeitevolution der ESA auftaucht.

Nun bekommen Vega und Ariane 6 eine gemeinsame Stufe. Doch die Preisschraube scheint inzwischen enorm schnell zu drehen. Dieser Booster kostet mehr als die gesamte Vega Entwicklung, die drei Stufen und eine neue Startbasis umfasste. Dabei ist diese noch nicht so lange her und die Inflation seit zwei Jahrzehnten niedrig, also die Kosten sind vergleichbar. Dasselbe gilt für die Ariane 4 selbst. 4 Milliarden Euro für eine Rakete, bei der die Zentralstufe eigentlich eine Modifikation der Ariane 5 ist, sind viel. Die Kostenaufschlüsselung beider Raketen zeigt auch, dass die Kostenersparnis nicht auf neuer Technik beruht, sondern höheren Stückzahlen wegen mehr Einzelstarts und einer Zusammenfassung der Produktion auf wenige Herstellungsorte anstatt rund 20 in ganz Europa. Das sollte doch auch beider Ariane 5 möglich sein und das Ersetzen der Booster durch vier kleinere auch. Dafür baucht man keine neue Rakete.

Meine Prognose: Bevor 2020 die erste Ariane 6 abhebt, wird man bei der ESA ein „Ariane 6 Evolution Programm“ beschließen. Schließlich müssen wir in Europa immer eine neue Rakete entwickeln – seit 1961 gab es kein Jahr, bei dem nicht ein Programm am Laufen gewesen wäre. Von 2011 bis 2012 waren es sogar drei:


Insgesamt hat sich das inzwischen verselbstständigt. Für wenige Neuerungen gibt man viel Geld aus. Obwohl begründet mit einem „eigenständigen Zugang zum Weltraum“ geht es um geringere Startkosten für kommerzielle Kunden, die man meiner Ansicht nach auch mit einer Umstrukturierung der Produktion der schon existierenden Modelle hinbekommt. Für die ESA lohnt es sich bei maximal 2 Starts pro Jahr nicht. Im günstigsten Fall müsste die Ariane 6 über 30 Jahre eingesetzt werden, damit sie für die ESA die Entwicklungskosten wieder einspielt.

Für Raketenbauer muss Europa das Schlaraffenland sein … Russland wohl eher die Hölle. Die kommen mit der Sojus und Proton mit Trägern aus, die seit 1966 also 50 Jahren substanziell nicht verändert wurden...


 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99