Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 419: 31.3.2015 - 6.4.2015

31.3.2014: Gedanken zur CRS2

Im Sommer will die NASA die Gewinner der CRS1 Ausschreibung bekannt geben. Die Gewinner von CRS1 waren ja bekanntlich Orbital und SpaceX. Das hat niemand verwundert, hatte die NASA doch genau diese Firmen vorher durch COTS gefördert und es wäre doch sehr überraschend gewesen, wenn die NASA die Firmen erst Transportsysteme entwickeln lässt und dann keinen Anschlussauftrag vergibt.

Für die Versorgung der ISS war dies nicht ideal, denn nach einer Untersuchung des GAO hinken SpaceX und Orbital bei CRS im Durchschnitt 33 Monate hinter dem Zeitplan hinterher - kein Wunder, wenn man 2008 einen Transportauftrag vergibt und die Transporter noch nicht existieren. Bei CRS1 gab es auch konventionellere Vorschläge, bei denen US-Firmen den gar nicht mal so dummen Vorschlag machten schon existierende Transporter (HTV/ATV/Progress) mit US-Trägerraketen zu starten oder diese anzupassen. Hinsichtlich der Versorgungssicherheit wäre dies besser gewesen. So sprangen die internationalen Partner ein, die ATV Flüge wurden vorgezogen, eigentlich hätte erst 2017 der letzte Start erfolgen müssen, nicht 2014. Etwas brachte auch die Streckung des Space Shuttleprogrammes um 1 Jahr und der zusätzliche Flug STS-135.

CRS2 ist nun aber ein anderer Fall. Nun muss man nicht mehr zwei Firmen aus COTS unterstützen, die Karten sind also neu gemischt. Bisher hat die NASA sieben Proposals bekommen. Nur von einigen weiß man die Konzeption. Man kann darauf wetten, dass SpaceX und Orbital wieder dabei sind. Es wäre ja ziemlich blöd, wenn man schon die Systeme hat, sich nicht bei einer Ausschreibung zu beteiligen. Boeings Vorschlag hat die NASA schon abgelehnt. Da die Flüge bei CCDev nur mit vier Astronauten stattfinden, die Kapsel aber sieben Sitzplätze hat, schlug die Firma einfach vor an den frei werdenden Platz Frachtsäcke zu packen. Etwas Fracht ginge noch außerhalb des Raumschiffs, so käme man auf 1.500 kg Fracht pro Flug und das zu geringen zusätzlichen Kosten. Aber wie kann man nur Fracht und Menschentransport vermischen, noch dazu zwei unterschiedliche NASA-Programme? Das geht doch gar nicht!

Sierra Nevada, die mit ihrem Dreamchaser bei CCDev unterlagen, setzen diesen nun unbemannt als Transporter ein, gegebenenfalls durch ein angekoppeltes Wegwerfmodul ergänzt. Wie die Dragon offeriert dieses Vehikel den Rücktransport von Fracht, die Geometrie des zylindrischen Frachtraums ist sogar günstiger als bei der Dragon, was aber nur bei ganzen Racks wichtig ist. Von Vorteil ist die völlige Wiederverwendung. Beim CCDev war der Vorschlag von Sierra Nevada der mit den günstigsten Flugkosten, trotz Atlas V als Trägerrakete.

Lockheed Martin hat in meinen Augen das innovativste Konzept: Die Firma trennt Servicemodul und Frachtmodul. Das Servicemodul wird separat gestartet, koppelt an ein Frachtmodul an (wegen den CBM-Anschlüssen hat es sogar einen Canadaram an Bord), nach dem Ablegen von der ISS wird ein neues Druckmodul gestartet, es wird gegenüber dem Alten ausgewechselt und die Centaur, die noch am neuen Modul ist, übernimmt dann nach dem Umsetzen das Deorbitieren - eine tolle Lösung, wenn auch etwas zeitkritisch, denn lange bleibt der Treibstoff nicht in der Centaur flüssig.

Beide Konzepte transportieren mehr Fracht: 5,5 bei Sierra Nevada und 6,5 t bei LM. Das ist nicht ohne Bedeutung, denn da das ATV wegfällt, das in den letzten Jahren 7 t pro Jahr brachte und es nun ein Astronaut mehr an Bord ist, will die NASA 15,5 bis 21 t Fracht pro Jahr transportiert haben: CRS1 kommt im Durchschnitt auf 8-10 t pro Jahr. Würde man die bisherigen Anbieter beauftragen und ihre Transporter voll nutzen so bräuchte man für 21 t Fracht rund 9 Flüge pro Jahr, weil die Dragon maximal 2 t und die Cygnus 2,7 t transportiert. Jeder Flug bedeutet Arbeit: am Boden aber auch im Orbit. An den Tagen, an denen ein Transporter ablegt oder ankommt, findet praktisch keine Arbeit mehr statt. Mehr Fracht pro Transporter ist also wünschenswert.

Daher haben Orbital und SpaceX hier gar nicht so gute Karten. Die Dragon kann schon jetzt nicht die volle Nutzlast der Falcon 1.1 ausnutzen (die Falcon 1.0 dagegen nicht die volle Nutzlast der Dragon). Da die meiste Fracht im Druckmodul transportiert wird und SpaceX hier am wenigsten Platz bietet, bräuchte man sehr viel Flüge. Gegen SpaceX spricht auch, das man ja Firmen fördern will und die Abhängigkeiten von einem Anbieter reduzieren SpaceX wird ja schon bei CCDev gefördert. Ein Ausfall der Dragon oder Falcon würde Frachtversorgung und Mannschaftstransport betreffen. Daneben finden sicher nicht viele Angestellte das Gebaren der Firma so toll. Die NASA darf keine Informationen veröffentlichen, nicht mal von Angestellten am KSC gemachte Bilder der Startvorbereitungen und Elon Musk greift schon mal Personen an, wenn er nicht die Aufträge bekommt, die er haben will. Zudem hat SpaceX auch so recht viel zu tun und noch mehr Versorgungsflüge ins voll gerammelte Startmanifst packen? Keine so tolle Idee.

Orbital hat auf der einen Seite es schneller geschafft von COTS zu CRS überzuleiten und bis Oktober eine eindrucksvolle Startfolge hingelegt. Doch der Fehlstart der Antares zeigte, dass die NK-33 Triebwerke auch in der zweiten Generation doch unzuverlässig sind. Die Russen sagten ja das Gegenteil, doch schon vor dem Fehlstart gab es zwei Ausfälle bei Tests im Stennis Testcenter der NASA. Damit muss Orbital erstmal nachbessern und ob die Wahl des RD-181 die richtige ist? Also ich hätte schon wegen der antirussischen Stimmung in den USA eher wie LM auf das BE-4 gesetzt, aber das steht nicht zeitnah zur Verfügung. Immerhin kann man die Cygnus leicht verlängern und so mehr Fracht transportieren. Die neuen Triebwerke sollen auch die Nutzlast um 1 t erhöhen, was bei der geringen Nutzlast der Cygnus (immerhin noch höher als die der Dragon) nicht unwillkommen ist.

Lockheed Martin hat mit Sicherheit das innovativste Konzept, wenn man das Vehikel nicht wiederverwenden will. Man trennt den "dummen" Frachtbehälter, im Prinzip nur eine Aluminiumhülle von dem teuren Teil dem Servicemodul. Ersteres geht jedes Mal verloren und Letzteres verwendet man immer wieder - die Firma liest wohl meine Blogs, denn das hatte ich für das ATV vorgeschlagen. Den DreamChaser würde ich wählen, wenn ich in der NASA an Gleiter glaube. Er offeriert die Technologie weiter zu perfektionieren, ohne Menschenleben zu riskieren. Und so ganz will man von der Technologie ja nicht lassen, wie das X-37 der USAF zeigt. Wenn Sierra Nevada zudem die Kosten des bemannten Gefährtes halten kann, ist es mit Sicherheit durch die vollständige Wiederverwendung die billigste Transportmöglichkeit.

Es wird gespannt zu sehen, wer gewinnt, zugleich auch ein Hinweis, wie die Mächteverteilung in der NASA derzeit ist. Im Sommer wissen wir mehr.

2.4.2015: Meine Wünsche an den nächsten PC

Wenn ich aus meiner Warte aus mir die PC-Industrie ansehe, so hat sich in den letzten 15 bis 30 Jahren nicht viel geändert. Die Grafische Benutzeroberfläche erreichte den Consumermarkt 1985 und Windows XP als grafisches Betriebssystem mit sauberem (nicht kooperativem) Multitasking und abgestuften Rechten kam 2001. (Bevor wieder Schlaumeier kommen: Ja beide Entwicklungen sind älter, aber ich rede vom Massenmarkt). Seitdem ist alles schöner und bunter geworden, gab es neue Busse oder Standards (USB 1.1 → 2.0 → 3.0 → 3.1) aber nichts revolutionär Neues. Trotzdem gibt es noch einiges, was zu verbessern wäre. Hier mal meine Wünsche an den langlebigen und ernsthaft nutzbaren PC:

Datenintegrität:

Seit es Computer gibt, kennt man das Problem der Datenkorruption, das im Digitalen Zeitalter viel problematischer ist als im Analogen. Das Problem ist ja nicht neu: Es geht Information verloren. Wenn bei analogen Medien die Signalstärke abnimmt, oder das Signal-Rauschverhältnis zunimmt, sind Kontraste nicht mehr so stark (bei Fotos), Amplituden geringer oder es gibt Störgeräusche (bei Tonsignalen) aber man kann das Medium noch nutzen. Im Digitalzeitalter ist es problematischer. Bei Code kann ein umgekipptes Bit einen Befehl verändern und so zu Berechnungsfehlern, Ablaufproblemen oder zum Absturz führen. Bei Daten kann der Wert komplett ein anderer sein, vor allem wenn die Daten komprimiert sind, kann ein fehlerhaftes Bit sich auf eine größere Datenmenge auswirken. Schwer vorstellbar, das ein JPG-Bild ein fehlerhaftes Bit auf 100 Bits, wie es manche Mariner 10 Fotos hatten, aushalten würde.

Nun ist das Problem bekannt und schon Rechner der Sechziger Jahren hatten Techniken um Bitfehler zu erkennen. Die grundlegenden Techniken sind seitdem unverändert: Man speichert neben den Daten auch zusätzliche Informationen, die es erlauben einen Bitfehler zu erkennen. Die Methoden sind unterschiedlich. Es können Prüfsummen sein, einfache Verknüpfungen der Bits eines Wortes oder komplexere Methoden die es erlauben die Fehler auch zu korrigieren, wenn diese nicht zu häufig sind.

Bei Arbeitsspeicher gibt es schon lange ECC-RAM. Es setzen heute aber nur Server ein, die normalen Motherboards für Consumergeräte unterstützen ECC-RAM nicht. ECC-RAM kann 1 Bit Fehler in einem Datenwort (heute 64 Bit) erkennen und korrigieren und 2 Bit Fehler erkennen, aber nicht korrigieren. Bei 3 Bit oder mehr Bitfehlern ist das Verhalten abhängig vom Auftreten und dem Bitmuster. Das erstaunliche ist: ECC-RAM war lange Zeit Standard und werde erst in den Neunzigern aufgegeben.

Seit ein paar Jahren haben auch Festplatten das gleiche Problem. Genauer gesagt: die Bitfehlerrate ist gleich hoch geblieben, dich die Kapazität der Festplatten ist soweit angestiegen, dass man beim einmaligen Kopieren des gesamten Inhalts heute statistisch mit einem umgekippten Bit rechnen muss. Festplatten haben heute aber keine Korrektur der Bitfehler, obwohl es doch kein Problem wäre, hinter jeden 512-Byte-Block einen 64 Byte Block mit Korrekturinformationen anzuhängen. Man braucht bei EDAC 1 Bit Korrekturinformationen pro 8 Datenbits. Dann ist die Kapazität eben etwas kleiner so what? Die Industrie setzt auf andere Techniken der Benutzer soll zwei Festplatten einsetzen und den Inhalt spiegeln oder Parity Informationen auf eine weitere Festplatte scheiben (Raid 5). Das Problem ist nur, dass man so nicht feststellen kann, welches Bit verfälscht ist. Die Technologie ist auch dafür gedacht, dass eine komplette Platte ausfallen kann, was ja auch passieren kann. Bei den heutigen Preisen für Festplatten wäre es sicher kein Problem, beide Technologien zu nutzen. Die meisten PC werden heute noch mit 0,5 oder 1 TB Platten ausgeliefert, also einer Kapazität, die seit 2009 existiert. Entsprechend billig sind sie heute geworden.

Diesselbe Technik kann man auch bei den Datenleitungen nehmen, wobei hier einfachere (schnellere) Techniken eingesetzt werden können, denn die Datenübertragung ist zeitkritischer und wenn ein Fehler auftritt, kann man einfach das Datenwort oder einen Block erneut übertragen.

Portabilität:

Das zweite und dritte betrifft nicht den ganzen PC, sondern nur Windows. Es gibt zwei Dinge, die mich ärgern, und die nicht nötig sind. Das eine ist das Windows nicht fähig ist, dauerhaft auf einem beweglichen Medium installiert zu werden. Genauer gesagt: Windows kann das. Seit Windows 8 gibt es Windows als portables System, das man auf einem USB-Stick installieren kann aber nur in der Enterpriseversion für Unternehmen. Bei allen andern Versionen kann man zwar von einem USB-Stick booten, aber nach einigen Wochen ist spätestens Schluss, weil ohne Registrierung dann Windows nicht mehr läuft und wenn man es zu oft registriert auch nicht. Vielleicht ändert sich das ja mit Windows 10, das ja umsonst sein soll und damit entfällt ja auch der Finanzielle Verlust durch Raubkopien der zu dieser Maßnahme führte. Das Problem ist ein ganz einfaches: Man hat ja nicht nur Windows selbst sondern nutzt auch viele Utilities, Anwendungsprogramme. Auf der Platte sind auch die ganzen Dokumente und der Archivierte Emailverkehr und die Kontakte. (Zumindest bei mir, ich speichere nicht in der Cloud) Schön wäre, wenn man das immer nutzen kann ohne alles neu zu installieren, vor allem wenn man beruflich an vielen PCs arbeiten muss. USB 3 Sticks sind auch schnell genug und haben die Kapazität. Zeit also das mal zu liefern. Life-Systeme gibt es bei Linux ja schon lange.

Monitore:

Das zweite ist die Art wie bei Monitoren skaliert wird. Ich sehe nicht besonders gut und habe daher die Skalierung auf 125% eingestellt. Damit sind die meisten Menüs genügend groß (auch hier gibt es Unterschiede sogar innerhalb von Programmfamilien) und Texte und Webseiten kann ich vergrößern. Nun liebäugele ich mit dem Ersetzen der beiden 24 Zoll Monitore durch einen UHD-Fernseher mit 40 oder 50 Zoll Größe und habe mal probeweise auf 150% hochgestellt alles größer, aber enorm unscharf. Es scheint als würde wirklich das Pixelmuster hochskaliert werden anstatt das man z.b. anstatt einer 8 Pt Schrift eine 12 Pt Schrift mit sauberen Fontmuster nimmt. Schlimmer: Ich muss ja nur die Beschriftungen hochskalieren, Symbole und Grafiken müssen nicht skaliert werden. In Windows 7 geht das nicht. Bei Windows XP konnte man noch die Menüschriftart selbst festlegen. Das geht nun nicht mehr.

Beim Monitor finde ich das 16x9 Format eine echte Verschlimmerung. Da ich vor allem lese und schreibe, brauche ich wenn schon dieses Format vorherrscht es im Hochformat. Klar gibt es drehbare Displays (Pivotfunktion) doch meistens sind sie erheblich teuerer und zudem wegen der Blickwinkelabhängigkeit der Displays auch nur gut lesbar, wenn man genau senkrecht draufschaut. Also entweder wird das Drehen (ohne Abhängigkeit vom Blickwinkel) Standard oder ihr denkt mal über quadratische Displays nach - davon hat auch der Anwender was. Bei gleicher Bildschirmfläche und Pixeldichte wäre ein quadratisches Display mit 24 Zoll Diagonale z.B. 15,7 x 15,7 Zoll groß und hätte 1882² Bildpunkte 70,9% mehr als beim 16:9 Format.

Mal sehen ob ich nochmals 30 Jahre warten muss bis das Standard ist. Aber wahrscheinlich nie. Eher wichtig ist es die Oberfläche dauernd zu überarbeiten.

3.4.2015: Neues von SpaceX und der Air Force

Während die Firma mal wieder eine schöpferische Pause einlegt (sie schafft offenbar schnell hintereinander zwei, maximal drei Starts und muss dann wieder eine Pause einlegen, das kam ja nun schon mehrmals vor) und den nächsten Start auf den 13.4.2015 festgelegt hat, wobei sie die Reihenfolge vertauscht hat, gibt es Neuigkeiten vom Zertifikationsprozess bei der Air Force.

Für alle die nicht ganz im Bilde sind: SpaceX will nicht nur den Großteil der kommerziellen Nutzlasten starten, sondern auch natürlich in das Regierungsgeschäft mit den USA einsteigen. Das ist unter zwei Gesichtspunkten sehr lukrativ. Zum einen gibt es weniger Konkurrenz, nämlich nur ULA. Im Prinzip sind Starts garantiert, wenn man zertifiziert ist. So wissen wir heute das die Delta 4 teurer als die Atlas V ist, trotzdem wurden immer Starts der Rakete gebucht. Nun soll sie auslaufen mit Ausnahme der Heavy Variante, deren Nutzlast höher als jede Atlas ist. Das Geschäft ist so lukrativ das ULA ihre Träger gar nicht auf dem freien Markt anbietet. Zudem kann man so die Fixkosten gut abfedern. Entsprechende Forderungen ist der ESA ja auch bei der Ariane 6 nachgekommen wo vier Starts jährlich der Industrie zugesagt wurden.

Zum zweiten sind die Verdienstspanne viel höher als im kommerziellen Markt. Die Konkurrenz ist teuer und die Regierungsbehörden machen so viele Auflagen und verursachen Bürokratie, das SpaceX zwischen 83,3 und 96 Millionen Dollar für einen Falcon 9 Start verlangt, während der gleiche Start sonst 61,2 Millionen kostet. Die Zusatzeinnahmen verbleiben natürlich im Unternehmen. Teurer wird es eigentlich nur für den Staat.

Nun die Falcon 9 ist seit Ende 2013 in der Zertifikation bei der USAF. Sah es so aus, als würde (der eh schon hinterherhinkende Prozess) im Juni/Juli abgeschlossen sein, so gab nun die USAF bekannt, das es noch weitere sechs Monate dauert und man noch 400 offene Punkte vor allem bei Oberstufe und Nutzlastverkleidung habe. Ein Bericht zeigt dass die Meinungen wie die Zertifikation abläuft und was dort abgeliefert werden muss weit auseinander gehen. Wer es genauer nachlesen will: ich beziehe mich auf diesen Artikel. SpaceX ist der Meinung das ihre Reihe von erfolgreichen Starts ausreicht um zertifiziert zu sein. Die USAF dagegen sieht die Zertifikation als einen Review des gesamten Trägers und der Firma. Im Prinzip ist jede Position verständlich. Die USAF sagt: "Unsere Satelliten sind teilweise extrem teuer, kosten Milliarden von Dollar, da wollen wir 100% sicher sein, dass die Rakete funktioniert und das machen wir indem wir die gesamte Konzeption aber auch die Fertigung und Firmenkultur durchleuchten". SpaceX sagt: Wir gehen neue Wege und wir beweisen, das unsere Raketen sicher sind, indem wir eine Liste von gelungenen Starts vorlegen. Diese Diskussion ist nicht neu. Sie gab es schon 2004/5 als die NASA nach einer Trägerrakete für die Orion suchte und die Ares I selektierte weil sie von dem Design her am sichersten war. Auf der Strecke blieben die Atlas V und Delta 4 die man hätte ausbauen können. Schon damals verwies man darauf, dass man durch die bis zum Jungfernflug der Orion gesammelten Starts so viel Erfahrung mit den Trägern gewonnen hat, dass man eventuelle Fehler die es noch gibt ausmerzen kann. Für die USAF-Meinung spricht auch die Verzögerung des derzeitigen Starts. Man hat einen Defekt vor dem Start in der Heliumdruckbeaufschlagung entdeckt der dazu führt dass man nun die folgenden Träger auch untersuchen muss. Arianespace und ILS haben das schon dahingehend kommentiert, dass sie ihre Träger so fertigen und kontrollieren, dass solche Fehler nicht erst vor dem Start auftreten (hoffentlich nicht nach dem Abheben - gerade das dies nicht passiert will die USAF ja vermeiden).

Es gibt auch andere Unstimmigkeiten: so soll SpaceX oftmals nicht verstanden haben was die USAF an Daten haben will und diese dann nachliefern müssen, was ebenfalls Zeit kostete.  Verwiesen wird, dass die EELV Träger Atlas V und Delta 4 nicht so viele Hürden hatten um zertifiziert zu sein. Nun ja dort musste man nicht alles neu zertifizieren, so waren die Oberstufen oder deren Triebwerke schon zertifiziert und vor allem die Firma musste nicht die Zertifikation durchlaufen.

Ich persönlich denke, es spielt auch eine Rolle das die Firma gegen die USAF prozessiert hat und Musk einen scheidenden General offen beschuldigt hat die Zertifikation zu verschleppen, um sich bei ULA einzuschleimen, nachdem dieser dort eine Anstellung nach dem Ausscheiden gefunden hat. Hätte er sich bei SpaceX beworben, dann wäre die Sache sicher ganz anders gewesen. Schon bei dem Prozess zeigte sich ein ziemliches Missverständnis: Als der Auftrag für den "Block Buy" erging, Ende 2012 war die Falcon 9 v1.1 noch gar nicht geflogen. Die Falcon 9 v1.0 war bis dahin dreimal geflogen, doch die hatte SpaceX nicht zertifiziert, wahrscheinlich weil man sonst bei der "1.1" nachzertifizieren musste. Die Firma hatte sich nicht mal bei dem Kontrakt beworben (nur die Unterlagen angefordert, aber nie zurückgeschickt). Dabei hatte man nach dem Kontrakt eigenes weitere ausgeschrieben nur für SpaceX. Inzwischen hat das Militär diese Kontrakte sogar wieder gekürzt (würde ich auch machen wenn man mich verklagt) und mit der 6-Monats-Verzögerung ist die Frist für die Bewerbung um einen weiteren Kontrakt abgelaufen. Immerhin hat die USAF auf die Streichung von drei NRO Starts reagiert und weitere Starts ausgeschrieben. Bis Ende 2017 sind sieben bis zehn Kontrakte offen.

Neben der USAF Zertifikation gibt es auch die NASA Zertifikation. Diese scheint anders zu verlaufen, zumindest gibt es davon weniger Neuigkeiten, vielleicht auch weil hier SpaceX nicht prozessiert und sich um Start bewirbt, die auch seltener sind. Diese hat drei Kategorien. Jede Trägerrakete fängt in Kategorie 1 an, wenn sie noch nicht geflogen ist. Nach einem bis sechs erfolgreichen Starts (warum es hier die Spannbreite gibt) kann die Trägerrakete in Kategorie 2 aufrutschen, das ist gerade bei der Falcon 9 der Fall. Kategorie 1 erlaubt das Starten von kleinen Satelliten ("Small Explorers" und Nutzlast zur ISS, Kategorie 2 das Starten von "Medium Class" Missionen, das ist der Großteil der NASA Missionen. Kategorie 3 ist nochmals eine Nummer höher und nur Träger dieser Kategorie dürfen Flaggschiff Missionen starten. Das sind aber auch wenige Flaggschiff Missionen sind z.B. Cassini, Curiosity, das Hubble Weltraum Teleskop. Nur zwei Träger, die Delta II und Atlas V erreichten jemals diesen Status. selbst die Atlas kann bis zu 14 erfolgreiche Starts brauchen um diese Kategorie zu erreichen, wenn sie das Haupttriebwerk auswechselt.

5.4.2015: Die ISS und die Marslandung

Früher preiste man die Raumstation als notwendig für eine bemannte Marslandung. Als man Freedom, den Vorläufer der ISS konzipierte, war gedacht, dass man dort dann die Hardware für die Marslandung zusammenbauen und auf den Weg bringen sollte. Das war zu einer Zeit, als man die Arbeit im Weltraum beträchtlich unterschätzte, auch Freedom erforderte nach den Planungen enorm viele Montagestunden im All. Als sich dies nach ersten Erprobungen von Arbeiten im Shuttle-Nutzlastraum als zu aufwendig herausstellte legte man ISS einfacher aus, weniger Montagestunden erfordernd. Von der Montage von Equipment mal ganz zu schweigen.

So war der Stand auch noch bis heute. Die NASA macht seitdem immer wieder Untersuchungen im Abstand einiger Jahre, wie die Marslandung basierend auf den heutigen Möglichkeiten der Technik ablaufen könnte und alle diese Untersuchungen gehen von dem Start kompletter Module mit Schwerlastraketen von der Erde aus. Eine Raumstation kommt in ihnen gar nicht vor.

Nun ist etwas Bewegung hereingekommen. Den Anfang machten der Start der neuen ISS Besatzung, die nun ein ganzes Jahr an Bord der Station bleiben soll. Bisher blieben die Astronauten maximal 180 Tage an Bord. Verwendet man chemische Energie für den Antrieb, aber sofern es nicht enorm viel ist, auch elektrische Energie, so dauert eine Marsexpedition aus himmelsmechanischen Gründen rund 33 Monate, davon typisch 220 bis 260 Tage für den Hin oder Rückflug und der Rest dann beim Mars (in der Umlaufbahn oder auf dem Boden). 360 Tage sind also nur etwas mehr als ein Drittel der Gesamtdauer. Es sollen dann noch Flüge folgen, bei denen die Besatzung solange wie in der interplanetaren Phase an Bord der Station ist, getrennt durch eine Phase von eineinhalb Jahren auf der Erde (soll die Landung auf dem Mars simulieren).

Nun gibt es nicht nur die erneut aufgekommene Marsbegeisterung für diese Pläne. Zumindest der jetzige 360 Tage Flug wurde von Russland durchgeboxt, die längere Aufenthalte an Bord der ISS wollte, damit sie mehr Weltraumtouristen starten kann. Das musste sie nach Fertigstellung der ISS und der Stammbesatzung von 6 Personen vor 5 Jahren einstellen. Die gerade gestartete Mission bietet zwei Sitzplätze. Einer wurde schon an die Sopranistin Sarah Brightman vergeben.

Es scheint der NASA aber nun auch etwas an der Vorbereitung einer Marslandung zu liegen. Sie hat neue Pläne für die Zeit nach 2020, wenn nach derzeitigen Beschluss die ISS Nutzung ausläuft. Die UA wollen bis 2024, eventuell 2028 weitermachen, seitens Russland gibt es auch eine Absichtserklärung bis 2024 doch Japan und Europa haben sich noch nicht zu einer weiteren Verlängerung durchgerungen. Nach Vereinbarungen mit den Raumfahrtbehörden müssen dann ihre Module abgekoppelt werden . Die NASA hat Untersuchungen angestellt wie man die Raumstation danach sinnvoll nutzen kann, schließlich entfallen zwei drei Labormodule. Ein umsetzbarer Vorschlag ist es, die schon teilweise fertiggestellten Module (CAM und US-Wohnmodul) zu starten und anzukoppeln. Das Zentrifugenmodul CAM könnte soweit umgebaut werden, dass man mit der Zentrifuge nicht nur kleine Bioproben sondern auch Menschen rotieren kann. Der Durchmesser ist zwar zu gering, um 1 g zu erreichen, doch 0,5 g an dem Ende und 0,2 g an der Mitte (korrespondierend mit Füßen und Kopf bei normaler Lage) werden erreicht und das könnte sich nach Ansicht der NASA schon positiv auswirken, wenn man die Zentrifuge ein bis zwei Stunden pro Tag nutzt. Auf jeden Fall will man es ausnutzen. Als zweiter Schritt könnte man eine größere Zentrifuge in einem aufblasbaren Modul starten. Der für 1 g notwendige Durchmesser von 7 m wäre in herkömmlichen Modulen nicht unterbringbar. Die Technologie von aufblasbaren Modulen will die NASA mit einem von Bigelow kostenlos gestarteten Modul nächstes Jahr erproben. Es wird als zusätzlicher Passagier bei einem CRS-Versorgungsflug mitfliegen. Bigelow plant Module mit 12,8 m Durchmesser, also erheblich mehr als man für eine Zentrifuge braucht.

Größere Pläne hat man für das bisher nur als Druckhülle vorliegende US-Wohnmodul vor. Es sollte ursprünglich mal die Mannschaftskabine mit Küche bilden. In ihm will man eine Luftschleuse am Ende anbringen und einen großen 3D-Drucker installieren. Der mit dem vorletzten ATV gestartete 3D-Drucker der ESA funktioniert prächtig an Bord der Raumstation und wird schon genutzt um abgebrochene und defekte Plastikteile zu ersetzen. Der im Labor eingebaute wird aber nicht Plastik nutzen, sondern Aluminiumpulver und er wird das ganze Labor ausfüllen. Er kann so bis zu 05 x 0,7 x 1,3 m große Teile fertigen. Gedacht ist am ersten Schritt an die Stützstrukturen die man außen hat wie z.B. die Rahmen von Solarpaneelen. Sie sollen dann von der Besatzung mit Solarzellen belegt werden und man will so erproben ob man diese funktionieren indem man sie außen installiert und mit dem Stromnetz verbindet.

klappt dies so wird in einem weiteren Schritt (noch offen, bestimmt erst nach 2024) dieser 3D-Drucker die Teile für einen größeren 3D-Drucker fertigen, der von Astronauten an der Außenseite der Station montiert wird. Dieser könnte die Rahmen- und Stützstrukturen größerer Bauteile für die Marsexpedition fertigen. So ist die Größe aller Landebauteile derzeit durch den Durchmesser der Trägerrakete vorgegeben. Das ist ein ziemliches Handicap für den Transport von Mannschaftsquartieren, wie auch sperriger Ausrüstung zumal der Hitzeschutzschild nicht die völlige Nutzung des Durchmessers erlaubt. Aufblasbare Schilde wurden schon vorgeschlagen, halten die Temperaturbelastung aber nicht aus. Mit einem 3D Drucker kann man die Stützstruktur für einen großen Hitzeschutzschild erstellen und ihn dann mit auf der Erde gefertigten Kacheln belegen. Man wird so zwar nicht Masse einsparen, aber viel Aufwand den man sonst treiben müsste um Equipment möglichst kompakt zu fertigen.

Den Abschluss werden dann eine Reihe von Missionen mit der Orion bilden. Diese soll an ein US-Modul ankoppeln, es ablösen und mit den Treibstoffvorräten einen elliptischen Orbit erreichen, der bis zu 5.000 km von der Erde wegführt. Dabei durchquert die Besatzung den inneren Van-Allen Gürtel rund zehnmal pro Tag. Sie erhält eine Strahlendosis die dreimal höher als auß0erhalb des Erdmagnetfeldes. 70 Tage in diesem Orbit entsprechen dann der Hin- oder Rückreise. Eine zweite Mission wird 160 tage dauern und die 500 Tage auf dem Mars mitsimulieren (bedingt durch die Oberfläche reduziert sich die Strahlenbelastung auf die Hälfte, die Atmosphäre hilft auch noch etwas). Eine letzte, 230 Tage lang dauernde Mission, wird dann die komplette Strahlenbelastung einer Marsexpedition simulieren. Durch die Treibstoffvorräte der Orion ist nur mit diesem Vehikel diese Mission möglich. Gleichzeitig dient sie als Rettungsboot, wenn die Messungen zeigen, dass das Risiko für die Besatzung zu groß werden.

Kritiker werfen der NASA vor mit diesen Vorhaben nur den betrieb der ISS zu finanzieren auch wenn sie nicht mehr international ist. So werden alle Mittel für den 3D-Drucker aus dem Ressort Space and Technologie kommen und die Flüge in den Van Allen Gürtel werden aus dem Exploration Budget finanziert, also dem Budget das derzeit am stärksten wächst und mit dem SLS und Orion finanziert werden.

5.4.2015: Die echten Saturn V Upgrades

Nachdem sich Elendsoft schon über mögliche Saturn V Upgrades ausgelassen hat, möchte ich mal nachreichen was man tatsächlich angedacht hat. Wie immer bei allen Raumfahrtprojekten muss man entscheiden, in welcher Phase das dann eingestellt wurde. Es gibt meistens eine vorbereitende Studie die mal grundlegende Fragen klärt und die gibt es zu Hauf zu allen Projekten, das kann auch der private Ansatz eines Mitarbeiters sein, der dann nicht viel weiter geht als Überlegungen in meinem Blog. Wird es ein echtes Projekt, so  durchläuft es vier Phasen, richtig teuer wird es erst ab Phase C, der Entwicklung. Phase A und B dienen dazu die Machbarkeit zu prüfen, das Design detailliert festzuklopfen und eventuelle vorbereitende Technologiearbeiten durchzuführen. Phase D ist dann die Produktion. Bei CCDev kostete z.b.  Phasen A+B bei drei Unternehmen rund 1100 Millionen Dollar, Phase C+D bei drei Unternehmen 10100 Millionen Dollar. (Ich habe Sierra Nevada das bei den ersten Stufen dabei war auch bei Phase C/D mit hinzugenommen). Ich behandele diesen Punkt etwas ausführlicher, weil viele diese Stadien nicht unterscheiden, wenn von einer "NASA Studie" oder "NASA Projekt" unterschieden wird. Doch wir wollen das ja hier richtig machen.

Grundsätzliches

Wernher von braun und seine Mitarbeiter planten eine ganze Familie von Trägern. Davon merkt man heute nur noch was an dem angehängten Buchstaben "I" und "V" an den beiden gebauten Typen. Sie sollten sich in Zahl der Triebwerke in den Stufen unterscheiden. Ab der Saturn C-3 waren F-1 Triebwerke in der ersten Stufe vorgesehen. Die Ziffer korrespondiert mit der Zahl der F-1 in der ersten Stufe. Die Familie ging von der Saturn II bis Saturn 8, einen Nutzlastbereich von 36 bis 170 t in LEO abdeckend. Ursprünglich sollte die Mondlandung mit der Saturn C-4 durchgeführt werden mit 41,5 t Nutzlast zum Mond. Da sehr bald klar war, das Apollo "Übergewicht" hatte ging man frühzeitig auf die C-5 über. Später baute man noch in die S-II ein weiteres fünftes Triebwerk ein um die Performance von 45 t auf 47 anzuheben. Es war also von vorneherein schon ein flexibles Konzept geplant.

Eine mit neuen Triebwerken ausgestattete Saturn C-8 mit der Bezeichnung "Nova" hätte sogar 200 t Nutzlast erreicht.

Engine Upgrades

Als man die Saturn baute, war die Triebwerksentwicklung schon angelaufen, sie hatte einige Jahre vorher begonnen. Die F-1 und J-1 Triebwerke waren selbst für die damalige Zeit recht konservativ aufgebaut, arbeiteten mit moderaten Brennkammerdrücken. Das verwundert nicht wenn man Werner von Brauns Philosophie kennt die darauf bestand Raketen möglichst robust zu bauen. Er hatte bei der A-4 viel Lehrgeld bezahlt und bei diesem Träger bis zu Kriegsende schon in der Entwicklung befindliche Verbesserungsmöglichkeiten nie eingesetzt (sie sollten erst in der Redstone umgesetzt werden).Beide Triebwerke waren um den Faktor 10-20 leistungsfähiger als alles was die USA vorher entwickelt haben und so war es sicher sinnvoll konservativ zu bleiben. Russland schaiterte z.b. mit seinen anspruchsvolleren NK-15 und NK-33 Triebwerken obwohl jedes gerade mal ein Viertel des F-1 Schubs hat.

Die beiden Leistungssteigerungen der Triebwerke J-1 und F-1 wurden noch während der Saturn V Entwicklung angegangen. Obwohl das Oberstufentriebwerk jünger war wurde es als erstes verbessert. Es hatte bei Apollo 4 versagt und war zwar ein Triebwerk, das ohne externe Zusatzsysteme arbeiten konnte (unetr anderem selbstständig starten und das Treibstoffverhältnis regulieren konnte) aber es war auch sehr kompliziert. Das J-2S stand für "Simplified", es war einfacher aufgebaut und z.B. nur noch dreimal anstatt beliebig oft zündbar. Gleichzeitig steigen Schub an, von 1020 auf 1178 kN, mit leichten Modifikation wären bis zu 1423 kN möglich. Eine längere Düse erhöhte auch den spezifischen Impuls um 100 m/s. Das J-2S durchlief die komplette Entwicklung und hätte 1971 in die Produktion gehen können. Das J-2S hätte die Nutzlast um 4 t gesteigert, das erscheint wenig, doch sollte man bedenken, dass nur 3 t mehr Nutzlast bei Apollo 15-17 die Mitführung des Mondautos, mehr Ausrüstung und die Ausdehnung des Aufenthaltes auf dem Mond von eineinhalb auf drei Tage ermöglichten. Die 4 t hätten durchaus einiges gebracht. Bei höheren Geschwindigkeiten wie Mars war der Effekt noch größer.

So verwundert es nicht das die NASA heute wieder das J-2S einsetzt. Es wird in der SLS genutzt. Mit einer neuen Turbopumpe und einer vergrößerten Düse liefert es als J-2X 1309 kN Schub bei einem spezifischem Impuls von 4393 m/s.

Anders sieht es beim F-1 aus. Das Nachfolgetriebwerk F-1A befand sich noch in einer frühen Phase der Entwicklung als man die komplette Saturn V Entwicklung einstellte. Das F-1A war wie das J-2S etwas einfacher gebaut, es hatte vor allem aber einen höheren Brennkammerdruck von 80 Bar (F-1: 67 Bar). Und der Schub stieg so auf über 8000 kN am Boden und 8700 kN im Vakuum. Es war im Schub reduzierbar, sodass die Abschaltung des mittleren Triebwerks nach 150 s entfallen konnte.

Das F-1 hätte vor allem durch den höheren Schub die bei der Saturn V sehr ausgeprägten Gravitationsverluste reduziert. Die Rakete startete gerade mit einem Schubüberschuss von 15%, normal waren 25%. Da es hier zu keinem Einsatz kam habe ich keine Performancedaten.

Treibstoffmischung

In den Sechzigern war man noch wesentlich experimentierfreudiger als heute. Theoretisch untersucht wurde allen ernstes den Sauerstofftank on der S-IC mit einer Mischung aus Sauerstoff und Fluopr (FLOX) zu füllen. Die Triebwerke wären damit problemlos zurechtgekommen. Es gab nach einer Studie mehrere Möglichkeiten. Untersucht wurde eine Mischung von 30,37,38 und 70% Fluoranteil. Bis 38% hätte man die Saturn V weitgehend unverändert gelassen. Das hätte durch höheren Startschub und höhere Ausströmgeschwindigkeit rund 7,7 mehr Nutzlast zum Mond gebracht, immerhin 15% der Startmasse. Mit 70% FLOX hätte man die Tank Aufteilung ändern müssen. Die F-1A Triebwerke hätte man dann zwingend benötigt weil die Rakete deutlich schwerer war. Dafür wäre die Mondnutzlast um 28,1 t gestiegen, das sind mehr als 50%. Mehr als eine Studie gab es zu dem Thema allerdings nicht.

Zusatzbooster

Booster gibt es heute bei fast allen Trägern und damals auch schon bei der Delta. Sehr früh untersuchte man auch die Verwendung von Boostern bei der Saturn V. Da gab es einmal das Projekt des AJ-260, des größten jemals getesteten Feststoffantriebs. Er sollte die erste Stufe der Saturn I ersetzen. Der Antrieb wurde tatsächlich auch getestet, das Programm jedoch schon 1965 eingestellt.

Naheliegender wäre es gewesen die schon in der Produktion befindlichen Booster der Titan 3C (UA1205) zusätzlich zu verwenden. Mit einer Länge von rund 22 m im zylindrischen Teil sind sie zudem gerade in der richtigen Länge um sie unten am Triebwerksgerüst und oben in der Strukturverstärkten Zwischentanksektion anzubringen. Wie das F-1A reduzieren sie durch den zusätzlichen Schub die Gravitationsverluste und erhöhen natürlich auch die Stufenmasse. Vier Booster hätten 8 t mehr Nutzlast zum Mond gebracht. Mehr als eine Studie war es aber nicht, denn Wernher von braun hatte etwas gegen Feststofftriebwerke und wehrte sich später vehement für den Einsatz dieser Antriebe beim Space Shuttle. Angesichts der geringen Kosten (damals 6,29 Millionen Dollar pro Paar), wäre es aber ein preiswertes Upgrade gewesen.

Nukleare antriebe

Die Saturn V war auch für die von Braun geplante Marsexpedition vorgesehen gewesen. Die NASA führte mit einem Reaktor auch Tests durch. Aber eine Stufe wurde nie gebaut. Da nukleare Triebwerke einen sehr geringen Schub haben, hätte man sie erst im Orbit gezündet. NERVA, das z.B. für einen Test an Bord der Saturn V vorgesehen war hatte z.B. einen Schub von nur 245 kN, ein Viertel eines J-1. Geplant war für die Marsexpedition ein wesentlich größerer Reaktor bei 4000 MW Leistung der 867 kN Schub geliefert hätte. Als 1972 das Programm eingestellt wurde hatte man einige Vorläuferreaktoren getestet, war jedoch noch weit von einem umsetzbaren Konzept entfernt, vor allem was den benötigten Schub, das Schub/Gewichtsverhältnis und die Ausströmgeschwindigkeit angeht. Systembedingt haben nukleare Antriebe sehr hohe Trockenmassen. Nur bei hohem spezifischem Impuls und Schub/Gewichtsverhältnis lohnen sie sich bei niedrigen Geschwindigkeitsbedarf wie für Mondmissionen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99