Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 590: 5.5.2020 -

5.5.2020: Die Aprilnachlese von SpaceX

Die Nachlese zu April ist recht kurz, nicht nur wegen Corona. Fangen wir mit den Starts an. Es gab nur einen, und der für Starlink, logischerweise, denn zum einen gibt es nicht mehr viele Kunden und zum anderen sind dann nicht Dritte durch die Coronaeinschränkungen betroffen. Ausländer dürfen ja gar nicht erst einreisen.

Spektakulärer war da die Explosion eines Prototypen bei einem Test. Es ist schon die dritte innerhalb eines halben Jahres. Ich erwarte ja nicht viel von SpaceX, aber ich dachte nach fast 20 Jahren haben sie etwas Erfahrung im Bau von Raketen. Die ersten Falcon 1 Starts scheiterten daran, dass man bei SpaceX dachte, man könne auf Dinge verzichten die nicht umsonst sich in 60 Jahren Raumfahrt etabliert haben wie Prallblechen um das Treibstoffschwappen zu reduzieren oder Retroraketen um die Kollision, der Ersten mit der zweiten Stufe zu verhindern. Bei dem Jungfernflug der Falcon 9 gelangte immerhin die Nutzlast in einen Orbit, auch wenn es noch Vorfälle gab, wie ausbleibende Wiederzündungen, die Fastkollision mit dem Startturm beim Jungfernflug und die taumelnde Nutzlast im Orbit oder Triebwerksausfälle. Das SpaceX noch immer anders tickte merkte man, als bei einem Start sich ein Riss in der Düse der Oberstufe zeigte und man diese Düse nicht austauschte, sondern einfach kürzte.

Aber das ist auch schon fast 10 Jahre her und inzwischen ist die Firma etabliert und sollte Erfahrungen im Raketenbau haben – dachte ich. Aber es scheint so zu sein, als würde man bei SpaceX immer auf der grünen Wiese neu anfangen. Anders kann ich es mir nicht erklären, dass ein Prototyp schon beim Betanken explodiert oder schrumpft. Zumindest zum Schrumpfen gibt es Parallelen. Die Atlas hatte so dünne Tankwände, dass sie nur unter Innendruck stabil war. Es gab mindestens zwei Vorfälle, wo diese Druckbeaufschlagung versagte und die Hülle kollabierte. Es gab auch mal eine Parallele zu SpaceX: am 11.5.1963 kollabierte eine Atlas-Agena, als man den Sauerstofftank entleerte und kein Druckgas das Volumen ausfüllte.

Die Geschichte zeigte dann: die dünnen Tanks waren zu dünn. Alle Atlas, die als Trägerraketen eingesetzt wurden, bekamen nachdem die Atlas bei Mercury Atlas 1 bei Erreichen von Max-Q durch die aerodynamischen Belastungen durch die Nutzlast kollabierte, dickere Wände, die das Trockengewicht der Tanks um 50 % erhöhten. Nur mussten diese Atlas nicht landen. Die Belastungen sind da noch viel höher. Die Belastungen bei der Falcon 9 sind natürlich geheim, aber die ersten Stufen kamen nur in Bruchstücken am Boden an. Bekannt sind die Belastungen bei den EPS Boostern der Ariane 5. Die maximale Verzögerung liebt bei 22 g, beim Aufstieg sind es maximal 4,8 g und maximale thermische Belastung bei 30 kW/m², beim Abstieg sind es 40 kW/m². Wenn die Prototypen aber schon bei der Beaufschlagung auf Flugdruck versagen, wie wird das dann erst später werden? Später im Monat hat ein Prototyp dann endlich eine Druckbeaufschlagung überlebt, was die US-Medienportale dann auch feierten. Aber ein gelungener Test nach drei Fehlschlägen sagt nun wirklich nicht so viel aus. Vor allem wird interessant sein, ob sich mit den Nachbesserungen auch was an der Massebilanz ändert – siehe unten.

Ich vermute das neue Raumschiff ist mit der heißen Nadel gestrickt, wie bei der Falcon 9 mit irrealen Vorgaben. Bei der Falcon 9 musste man nachbessern. Doch zugeben kann man das nicht. So stehen auf der Website irreale 8,3 t GTO-Nutzlast während der Manager für Launch Services Koenigsmann vor Fachpublikum sie mit 6,5 t (ohne Bergung) angibt. Das wird für die Super Heavy wie das Starship gelten, doch bei dem Starship schlagen Erhöhungen der Masse deutlich zu: bei 100 t Nutzlast soll es 120 t wiegen. Das Masseverhältnis ist dann schon fast so ungünstig wie beim Space Shuttle. Das erste Starship soll ja auch 200 t wiegen, dann ist die Nutzlast fast gleich Null und ob man so einfach 40 % der Masse einsparen kann? Ich denke eher nicht.

Obwohl es inzwischen einen „Users Guide“ gibt – in Anführungszeichen, weil man eigentlich nichts über das System erfährt, scheint man im Rest der Firma nichts von dem neuen Gefährt zu halten. Alle Kontrakte, die abgeschlossen wurden – und zwar auch langfristige wie der Start von Raumsonden erst ab 2026, oder noch später der Versorgungskontrakt für das Lunar Gateway basieren auf den Falcons. Mehr noch: um die von der NASA geforderten 4,4 t Fracht zum Gateway zu befördern reicht auch eine Falcon Heavy in der heutigen Form nicht aus. Anstatt nun also das viel leistungsfähigere Starship einzusetzen soll es eine neue Falcon Heavy Version geben. Immerhin: nicht nur ich, sondern auch die NASA erfährt nichts darüber, wie diese Version aussieht:

„Another weakness involved the performance of the Falcon Heavy, and suggested a new version of that rocket would be used for Dragon XL. “SpaceX could have been clearer in stating its launch vehicle’s performance capability, especially since this configuration has not yet flown and thus, performance margins for lifting its Dragon XL are uncertain,” Bowersox wrote. SpaceX did not respond to questions April 10 about any changes to the Falcon Heavy planned for Dragon XL missions.“

Ich vermute SpaceX weiß selbst noch nicht wie die Falcon Heavy aussieht. Bei den derzeit bekannten Massen für Dragon V2 und Nutzlast der Falcon Heavy fehlt einiges: Die Dragon 2 soll 9,5 t ohne Treibstoff wiegen, dazu kommen 4,4 t Nutzlast. Die 14 t könnte eine Falcon Heavy gerade zum Mond transportieren, doch dort muss sie auch noch in eine Umlaufbahn eintreten, was Treibstoff erfordert und die Startmasse auf etwa 19 bis 20 t anhebt. Das ist deutlich mehr als die Falcon Heavy heute transportieren kann.

Während der Auftrag für die Versorgung des Lunar Gateways an SpaceX relativ logisch war, hat die Firma doch einen Versorger im Einsatz und ist derzeit die Einzige mit einer Trägerrakete, die auch den Mond erreichen kann, war überraschend das die Firma einen von den Erstkontrakten für einen Mondlander bekam. Die Einschätzung war dann auch nicht besonders toll:

Blue Origin:

Dynetics:

SpaceX:

Allerdings war SpaceX Kontrakt auch der kleinste (135 Mill. Dollar, Blue Origin: 579 und Dyntecis, trotz der besten Bewertung nur 323 Mill. $). Im Prinzip läuft die technische Kritik darauf hinaus, das SpaceX ohne Not das Starship als Mondlander einsetzt. Dafür ist die Mission ziemlich komplex mit Auftanken im Erdorbit und ehrlich gesagt, so stabil sieht es in den Abbildungen auch nicht aus – auf dem Mond ist es meist auch nicht so eben. Die Apollo Mondlander waren mehr breit als hoch, hatten dazu nach außen ragende Landebeine und hier landet ein Spargel ohne Beine und das soll gehen, ohne das es umkippt? Das schafft SpaceX ja nicht mal bei jeder Landung auf ihren Droneschiffen. Die schlechte Management Bewertung basiert vor allem darauf, das SpaceX seit dem COTS-Erstkontrakt von der NASA 2008 alle Zeitfristen gebissen hat und zwar deutlich. Eventuell startet Ende dieses Monats die erste bemannte Mission mit einer Crewed Dragon – Elon Musk hat das im Jahr 2014 schon für September 2016 angekündigt. Dabei hatte SpaceX, als sie den Auftrag bekamen, einen Riesenvorteil: anders als Boeing hatten sie schon einen unbemannten ISS-Versorger im Einsatz. SpaceX musste weniger entwickeln und konnten auf bewährte Systeme zurückgreifen. Die drei Jahre Vorsprung sind inzwischen auf wenige Monate zusammengeschmolzen.

Ich möchte kein Bashing betreiben, lest euch den Artikel selbst durch. Mit fällt nur eines auf: Das Starship soll ja 120 t wiegen, dazu käme noch die Nutzlast (nach Artikel bis zu 100 t). Das landet auf dem Mond und fliegt zurück zur Erde.

Okay, eine Lektion in SpaceX-Kritik für Fanboys. Die Saturn V konnte ~ 130 t in einen Erdorbit und knapp 50 t zum Mond bringen. Von den 50 t machte der Mondlander 16,5 t aus, von denen nur noch 2,2 t in den Orbit gelangten. Zurück zur Erde gelangten noch 5,5 t – die Kapsel. Alles andere wurde während der Mission sukzessive abgetrennt, um die Masse zu reduzieren.

Das Starship wiegt nach Musks Angaben 120 t ohne Nutzlast. Wie kann man auf die Idee kommen, die rund 20-fache Masse einer Apollomission zur Erde zurückzubringen?

Immerhin man kann es berechnen. Das dV aus einem Erdorbit für eine Mondtransferbahn sind 3.100 m/s. Weitere 3.000 m/s braucht man für eine Landung bzw. einen Rückstart, wenn man die Reserven und Ab- / Aufstiegsverluste von Apollo zugrunde legt. Wir sind dann insgesamt bei einem dV von 9100 m/s, also fast so viel wie ein Starship benötigt, um einen Erdorbit zu erreichen. Auf Basis der Raketengleichung und einem reklamierten spezifischen Impuls von 382 s (CEA2 errechnet nur einen von 375, aber bestimmt gibt es bei SpaceX eine andere Physik ..) kann man leicht errechnen, dass man dafür ein Massenverhältnis von 11,34 braucht. Mit anderen Worten: bei 120 t Masse im Erdorbit muss man etwa 1.240 t Treibstoff zuladen, um die Mission durchzuführen. Das ist sogar mehr als das Starship als zweite Stufe beim Start wiegt. Man kann überschlagen, wie viele Tankflüge man braucht. Die Nutzlast bei einer LEO-Mission soll ja 100 t betragen. Ohne Nutzlast verbleibt dann Treibstoff in den Tanks – es sind nicht 100 t, weil die Rakete ohne Nutzlast leichter ist, aber nicht enorm viel mehr. Ich habe es mal simuliert, wobei alle Daten der Kombination ja spekulativ sind und komme auf 117 t. Doch dann reden wir immer noch von 10 bis 11 Tankflügen. LOX und Methan Gase sind zudem nur bei tiefen Temperaturen flüssig. Also ewig Zeit kann man sich damit (selbst bei guter Isolation) auch nicht lassen.

Kurz das Konzept geht nur auf, wenn das Starship Musks Versprechungen einhält, und zwar hinsichtlich Startrate und Kosten pro Flug. Aber Musks Versprechungen wurden noch nie eingehalten, weder bei Kosten, noch Performanceparametern und schon gar nicht bei Zeitplänen. Was da intern bei SpaceX passiert, würde mich schon interessieren. Also entweder redet die Abteilung die Verträge abschließt nicht mit der, welche die Technik entwickelt, oder sie muss Elon Musks Vorgaben gehorchen, auch wenn diese nicht umsetzbar sind.

Ich vermute mal, wenn es jemals zum Starship kommt, wird es anders sein als jetzt propagiert: schwerer, mit weniger Nutzlast. Das ist ja nicht neu. Auch die Space Shuttles sollten mal 68 t wiegen, lagen real aber zwischen 79 und 82 t. Und wie beim Space Shuttle reduziert das die Nutzlast dann deutlich. Bei jeder anderen Firma hätte ich auch gesagt: es kommt nie. Denn es gibt keinen Markt dafür. Niemand braucht eine Rakete für 100 t Nutzlast, die nicht mal ohne Nutzlast einen GTO-Orbit erreicht. Aber bei SpaceX haben wir ja schon Erfahrungen mit der Falcon Heavy – auch für die gab es keinen Markt und gebaut wurde sie trotzdem.

7.5.2020: Die Lösung für ein überflüssiges Problem – wann lohnt sich ein Raspberry Pi im Weltraum?

Heute wieder mal Blog zu einem speziellen Thema. Es geht um die für die Raumfahrt geeigneten Computer. Betrachtet man sich die letzten 40 Jahre, so sieht man eine Tendenz: sie haben gegenüber der „irdischen“ Hardware deutlich an Leistung verloren. Als 1981 das Space Shuttle abhob, waren ihre Bordcomputer, die auf der System 360 Architektur basierten, noch deutlich schneller als Computer, die man als Privatperson kaufen konnte (mit einem Großrechner kann man die Rechner natürlich nicht vergleichen, schon alleine wegen des Gewichts, Volumens oder Stromverbrauchs, aber Rechner in Raumfahrzeugen haben in etwa das Volumen eines PC. Die Shuttles hatten 32 Bit Prozessoren mit 416 KByte Speicher pro Rechner, ein Heimcomputer wie der ZX80, Ti 99/4a oder VC20 einen 8 Bit Prozessor mit 1 bis 16 KByte Speicher.

Bis Anfang der Neunziger Jahre hatten Mikroprozessoren aufgeholt und zeitweise wurden sogar normale Mikroprozessoren in Raumfahrzeugen verwendet, so ein 8086 in Rosat und ein 386 in Hubble. Seitdem hinkt die weltraumtaugliche Hardware der irdischen hinterher.

Die Anforderungen an die Bauteile sind im Weltraum höher. Man denkt zuerst an die energiereiche Strahlung, sowohl geladene Teilchen, wie die des Sonnenwinds, wie auch ionisierende Strahlung wie Röntgen- oder Gammastrahlung werden von der Erdatmosphäre abgefangen. Sie kann Ströme in einem Schaltelement induzieren oder Bits umkippen lassen. Dazu kommt, dass die Temperaturextreme höher sind. Früher wurden „militärische“ Hardware eingesetzt. Jeder Hersteller hatte eine Fertigungslinien mit „military grade“ Elektronik. Sie hatte eine höhere Toleranz gegenüber zahlreichen Umgebungsparametern und wurde z.B. in Flugzeugen oder Lenkwaffen verwendet. Heute lohnt sich das für die großen Hersteller nicht mehr, denn anders als in den Siebzigern und Achtzigern ist heute der Massenmarkt viel größer als der militärische Markt.

Ein Grund, warum die weltraumtaugliche Hardware hinterhinkt, ist dass die Investitionskosten in neue Fabriken um so höher sind, je kleiner die Strukturbreiten sind. Das kann man mit dem Absatz von einigen Tausend Bauteilen natürlich nicht bei aktuellen Fabs ,die Milliardeninvestition erfordern, rechtfertigen.

Im Einsatz sind heute Prozessoren auf Basis des PowerPC 750 und der Sparc 7 Architektur. Beides sind Prozessorarchitekturen aus der zweiten Hälfte der Neunziger. Entsprechend haben sie Leistungsdaten wie ein PC aus dieser Zeit z.B. einen maximalen Takt von 200 MHz. In den letzten Jahren hat sich wenig getan, wenn dann versucht man auch nicht eine schnellere Architektur zu verwenden, sondern die Architektur mit FPGA zu verbinden, ein FPGA führt dann in der Hardware einen rechenintensiven Algorithmus aus.

Nach dieser Einleitung die heutige Problemstellung: Für das, was die Prozessoren meist leisten müssen, das sind Steuerungsaufgaben reichen sie aus. Eine Parallele kann man zur Makerszene ziehen: die 8 Bit Atmel Mikroprozessoren sind noch deutlich leistungsschwächer, reichen aber für Steuerungsaufgaben vollkommen aus. Schlussendlich muss keine grafische Benutzeroberfläche erstellt werden oder 60 Frames einer Spielszene pro Sekunde neu berechnet werden. Es gibt aber durchaus auch Aufgaben die mehr Rechenleistung erfordern. Erdbeobachtungssatelliten könnten Bilder auswerten und anhand der Helligkeits- und Kontrastverteilung Bilder mit zu vielen Wolken gar nicht abspeichern. Raumsonden können die Belichtungszeit jedes Bildes basierend auf dem letzten optimal anpassen – man muss sich nur Cassinis Aufnahmen der Eismonde ansehen – die Belichtung ist oft zu hoch, und die Bilder extrem hell. Bei Satelliten, die die Erde oder einen Planeten in Streifen kartieren, nimmt die Breite eines Streifens zu den Polen hin ab. Diese Teile müsste man ebenfalls nicht speichern, das bedeutet immerhin das man 57 % mehr pro Tag abbilden kann. Für die heutigen rechenintensivsten Aufgaben der Datenaufbereitung, vor allem Komprimieren und Codieren mit Wiederherstellungsinformationen gibt es aber schon lange Spezialchips.

Meine Idee: Anstatt Spezialhardware zu entwickeln, nimmt man normale Hardware und schirmt diese ab. Die Abschirmung erhöht natürlich das Gewicht. Theoretisch kann ich daher einen Punkt bestimmen, ab dem dieses erhöhe Gewicht multipliziert mit den Startkosten pro Kilogramm die niedrigen Kosten für die Hardware erreicht. Alles, was weniger wiegt, ist dann günstiger. Die Preise für Weltraumhardware sind weitestgehend unbekannt, doch ein weltraumtaugliches BAE 750 Board soll 100.000 Dollar kosten.

Das erste was man bei dem Ansatz tun muss, ist es die nötige Abschirmung zu ermitteln. Ich binfür die nötige Abschirmung von der ISS ausgegangen. Die Astronauten verwenden zum Teil normale Konsumerhardware wie Notebooks. Die wird zwar modifiziert, aber das dient vor allem dem Brandschutz. So werden nicht benötigte Schnittstellen versiegelt oder Akkus ausgetauscht oder entfernt. Die Elektronik ist aber dieselbe. Das ist auch logisch, denn die Argonauten selbst dürfen ja auch nicht durch die Strahlung gefährdet sein, das heißt die Abschirmung muss ausreichen das sie keine Gesundheitsgefahr haben und Menschen sind immer noch empfindlicher als Elektronik. (Etwa um den Faktor 5 bis 10).

Die reine Struktur eines ISS Moduls finden wir in den MPLM, Transportmodulen des Space Shuttles. Eines wurde auch zum ISS Modul umgebaut. Bei den normalen ISS Modulen erhält man die Startmasse des Moduls, die durch Installationen höher ist. Ein MPLM wog 4.100 kg bei einem Durchmesser von 4,60 m und 6,4 m Länge. Modelliert als Kreiszylinder, hat es dann eine Oberfläche von 110 m². Bei 4.100 kg Masse wiegt ein Quadratmeter also 37,2 kg, da die Hülle aus Aluminiumlegierungen besteht, ist sie bei einer angenbommenen Dichte von 2,8 g/cm³ rund 13,3 mm dick.

Ich fange mal als möglichem Bordrechner mit einem Raspberry Pi an. Schon das erste Modell war schneller als ein BAE 750. Der aktuelle Pi 4B ist fünfmal schneller als das Erstmodell. Ein aktueller PC Prozessor ist pro Kern nochmals viermal schneller. Wir reden also von einer Steigerung der Geschwindigkeit um einen Faktor von mindestens 10, nimmt man die höhere Kernzahl gegenüber dem BAE 750 hinzu dann ist ein PC Prozessor mehr als 100-mal schneller.

Der Vorteil des Raspberry PI ist, das er sehr kompakt ist. Ein Gehäuse hat Abmessungen von 7 x 9,5 x 3 cm. Mit 13,3 mm Abschirmung wäre das ein Aluminiumblock von 96,6 x 116,6 x 56,6 mm. Die Platine aus diesem Volumen herausgerechnet sind das 636 cm³, die bei einer Dichte von 2,8 g/cm³ rund 1,79 kg wiegen.

Im aktuellen Heft der ct‘ wurden Mini-PC vorgestellt. Der Kleinste hat ein Gehäuse von 175 x 175 x 34 mm. Entsprechend mit 13,3 mm Aluminium abgeschirmt sind es 201,6 x 201,6 x 60,6 mm und ein Gewicht von 4 kg.

In beiden Fällen gibt es Optimierungen. Die Höhe beider Gehäuse wird durch die Schnittstellen bestimmt, beim PC auch durch den Lüfter. Bei einem Alublock als Kühlkörper ist der verzichtbar und Schnittstellen kann man an jede Seite legen, um zwei Buchsen übereinander zu vermeiden. Zudem ist nicht gesagt, dass eine Platine nur einseitig bestückt sein muss und man kann die Breite verkürzen und dafür mehrere Platinen übereinander montieren. Bei mehreren Bordcomputern (zur Redundanz) kann man diese zusammenlegen und so ebenfalls Abschirmung sparen.

Doch auch 4 kg im Worst Case sind eine Ansage. Bei 100.000 Dollar pro weltraumtauglichem Mainboard muss der Transportpreis pro Kilogramm 25.000 Dollar erreichen, um äquivalente Kosten zu verursachen. Ein Vergleich mit Startpreisen zeigt, dass fast jede Rakete in den LEO niedriger liegt, auch im GTO ist das noch so. Im GEO – entsprechendes gilt wegen der Geschwindigkeit auch für Venus- oder Marsmissionen - liegt eine Ariane 5 leicht drüber, eine Ariane 6 deutlich darunter. Bei SpaceX hängt es von der Satellitenmasse ab, da hier keine Doppelstarts zur maximalen Nutzlastausnutzung möglich sind. Beim Raspberry PI ist durch das geringere Gewicht der Vorteil sogar noch größer.

Dafür bekäme man aber auch mehr Rechenleistung. Sofern die benötigt wird, wäre die Abschirmung also eine Alternative. Die Idee ist ja nicht neu. Bei JUNO wurde nicht nur der Bordcomputer, sondern alle Teile die eine Elektronik enthielten wie die Inertialplattform in einen „Safe“, einem Kasten aus Titan mit dicken Wänden verpackt. Nur hat man eben nicht jedes Teil abgeschirmt, sondern alle zusammen. Damit kommt die normale weltraumtaugliche Hardware auch bei Jupiter zurecht, obwohl die Hardware 1000-mal höherer Strahlung ausgesetzt ist. (weltraumtaugliche Hardware ist zehn bis zwanzigmal strahlungstoleranter als kommerzielle). Das müsste dann auch eine Reduktion in einem Erd- oder Sonnenorbit um den Faktor 1000 bewirken und damit wäre man selbst im Van Allen Strahlungsgürtel weit unter den maximalen Dosen. Die Abschirmung des Safes von Juno ist vergleichbar mit der oben angenommen (1 cm dicke Titanwände, entsprechend 45 kg/m²).

Kurz: Wenn man den Bedarf nach mehr Rechenleistung hat, wäre es meiner Ansicht nach eine gute Idee, auf einer Technologiemission einfach mal kommerzielle Designs in dieser Art abgeschirmt zu testen. Was der Vorschlag natürlich offen lässt ist die Lebensdauer. Kommerzielle geostationäre Satelliten haben eine Designlebensdauer von 10 bis 15 Jahren und leben oft noch länger. Raumsonden sind noch länger in Betrieb. Ob kommerzielle Prozessoren wie auch die anderen Komponenten eines Mainboards so lange durchhalten? Hier dürften PCs oder Server schon wegen der Verbesserung der Rechenleistung, Neueinführung von Peripherie mit anderen Schnittstellen viel früher ausgewechselt worden sein.

8.5.2020: Parallelstufung, Serienstufung oder Abwurf?

Mit nur einer Stufe kommt man zwar in den Orbit, die Nutzlast ist aber dann sehr klein. Also braucht man mehrere Stufen. Neben der Serienstufung – eine Stufe zündet nach der anderen - gibt es noch verschiedene Konzepte der Parallelstufung. Bei einer Parallelstufung zünden mehrere Stufen gleichzeitig, eine hat aber früher Brennschluss und wird abgeworfen. Da gibt es etliche Subkonzepte:

Man kann das noch feiner unterteilen, nur als Beispiel möchte ich die homogene Parallelstufung nennen. Da kann man Folgendes machen:

Grundlagen

Der Nutzen ergibt sich einfach aus der Raketengrundgleichung: je früher man tote Masse abwirft, desto höher ist die Endgeschwindigkeit oder bei gleicher Endgeschwindigkeit die Nutzlast. Während das bei leeren Tanks offensichtlich nützt, ist es bei den Triebwerken nicht ganz so einfach. Der Abwurf von Triebwerken bedeutet auch weniger Schub, damit weniger Beschleunigung und braucht die Rakete länger um die Orbithöhe zu erreichen, was höhere Gravitationsverluste bedeutet. Ignoriert man die Gravitationsverluste, so ist eine Parallelstufenrakete immer schlechter als eine Serienstufenrakete, denn beim Abwerfen der Booster ist die Stufe ja zum Teil entleert, weist also ein höheres Voll- / Leermasseverhältnis auf. Durch die Gravitationsverluste wird es schwieriger, denn eine zweite Stufe hat meistens viel weniger Schub als die Zentralstufe und damit eine längere Brennzeit.

Daneben ist der Effekt je nach Treibstoffkombination unterschiedlich. Man muss zwischen Wasserstoff und anderen Treibstoffen unterscheiden. Wasserstoff hat eine Dichte von 0,0682 g/cm³, die meisten anderen Treibstoffe haben eine Dichte von 0,8 bis 1 g/cm³. Methan als Ausnahme liegt mit 0,45 g/cm³ dazwischen. Daneben benötigt Wasserstoff wegen des kleinen Intervalls, in dem er flüssig ist und der geringen Dichte eine Isolation, die bei allen anderen Treibstoffen und dem Oxidator LOX entfallen kann. Tanks für Wasserstoff/Sauerstoff wiegen so dreimal so viel wie die für andere Kombinationen. Bei einer LOX/LH2 Stufe wiegt so der Antriebsblock etwa ein Drittel der Gesamtmasse, die Tanks zwei Drittel oder sogar noch mehr (z.B. bei Oberstufen mit schubschwachen Triebwerken). Bei anderen Treibstoffen machen die Triebwerke den Großteil der Masse aus, meistens die Hälfte, es können aber auch mehr sein.

Simulation

Der Nutzen ist nur praktisch berechenbar. Ich habe wegen des größeren Effekts des Einflusses der Tanks eine Wasserstoff-Sauerstoff Rakete genommen mit folgenden Eckdaten:


Masse voll

Masse leer

Schub

Brennzeit

Spezu Impuls [Vakuum]

Zentralstufe

120 t

12 t

1.000 kN

461 s

4.000 m/s

Booster

4 x 60 t

4 x 6,5 t

4 x 1.000 kN

211 s

4.000 m/s

Oberstufe

30 t

3 t

200 kN

587 s

4350 m/s

Stufe beim Abwurf von Tanks oder Triebwerken

360 t, davon 240 t Abwurfanteil

38 t (17,3 t Tanks, 8,7 t Antrieb, 12 t zentrale Stufe

5.000 kN

variabel

4.000 m/s


Worauf ich achtete, war das in allen Varianten die Parameter Schub und Massen in der Summe identisch sind. Damit sind die Ergebnisse vergleichbar. Der Zielorbit ist ein 200-km-Kreisorbit mit einem Flugazimut von 90 Grad von Cape Kennedy aus (200 x 200 x ~ 27 Grad)

Hier nun die Ergebnisse:

Typ

Nutzlast

Parallelstufe (4 x 65 t + 120 t)

21,2 t

Serienstufung

22,0 t

Eine Stufe mit 360 t Masse

21,3 t

Abwurf Tanks

25,9 t

Abwurf Triebwerke

19,3 t

Crossfeeding

16,6 t

Das Ergebnis zeigt es deutlich: Die klassische Parallelstufung, die Serienstufung aber auch eine Stufe mit 360 t Masse (anstatt einer Zentralstufe mit 120 t und vier Boostern mit 60 t, die auch zusammen 360 t wiegen) liegen in der Nutzlast ziemlich gleichauf. Bei der Einstufenlösung heben sich die Effekte geringere Brennzeit und dadurch flachere Aufstiegskurve und dafür hohe Brennschlussmasse nahezu auf. In der Praxis hätte natürlich eine größere Stufe ein etwas günstigeres Masseverhältnis als die Kombination aus vier 60 t Boostern und 120 t Zentralstufe, das würde die Nutzlast wahrscheinlich noch um eine weitere Tonne anheben. Für einen erdnahen 200 km Orbit reichen auch zwei Stufen vollkommen aus. Größere Unterschiede würde es erst bei größeren Zielgeschwindigkeiten wie Fluchtbahnen geben.

Es ist ungünstiger gegenüber obigen drei Optionen, die Triebwerke abzuwerfen. Denn dadurch verliert man Schub. Man kann hier sicher noch etwas optimieren, der Abwurfzeitpunkt wurde ja, um vergleichbar zu sein nach demselben Treibstoffverbrauch wie bei der Parallelstufung festgelegt. Etwas später, wie es bei der Atlas der Fall war, wäre sicher besser.

Allerdings sind die Tanks immer tote Masse und sie wiegen doppelt so viel wie die Triebwerke und erzeugen keinen Schub. In diesem Beispiel bringt es deutlich mehr Nutzlast, wenn man die Tanks vorher abwirft. Konstruktionsmäßig könnte man dies so realisieren, dass alle Triebwerke sich in der Zentralstufe befinden – sie würde an der Basis dann deutlich breiter sein und die Tanks außen sitzen und bei Leerung dann abgetrennt werden. Sie würden zuerst verbraucht werden, dann erst die Tanks der Zentralstufe.

Das „Crossfeeding“, also der Verbrauch des Treibstoffs zuerst der Außenblocks auch durch die Zentralstufe dann erst Verbrauch der Zentralstufe ist bei dieser Rakete ungünstiger. Das hat mich zuerst auch etwas verwirrt, behauptete SpaceX doch das Gegenteil (hat es aber auch nie umgesetzt). Es ist, wenn man sich die Daten ansieht aber schlüssig. Bei der Falcon 9 war es immer so, das eine Core alleine abheben kann, das kann diese Rakete nicht. Sie wiegt bei Stufentrennung 170 t und hat dann etwa 110 t Schub, das bedeutet, die Booster müssen die Aufstiegsbahn so steil anlegen, dass sie davon zehren kann. Damit bauen sie aber kaum horizontale Geschwindigkeit auf. Die Rakete erreicht auch die höchste Gipfelhöhe von 261 km von allen simulierten Fällen.

Noch ein kleines Nachwort: das war ein durchgerechnetes Beispiel und andere mögen in den Details anders liegen zudem gäbe es auch noch Optimierungen, die man dann für jeden Fall einzeln anstellen könnte wie die Stufenmassen und Schub zueinander anzupassen die Zweitstufe kann man auch noch modifizieren und mit LOX/Kerosin ergeben sich wieder andere Massenverhältnisse und Stufenverhältnisse. Besonders bei Crossfeeding müsste die zentrale Stufe genügend Schub haben, um nach Stufentrennung über 1 g zu beschleunigen. Aber ich denke der Trend ist relativ klar.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99