Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 590: 5.5.2020 - 14.5.2020

5.5.2020: Die Aprilnachlese von SpaceX

Die Nachlese zu April ist recht kurz, nicht nur wegen Corona. Fangen wir mit den Starts an. Es gab nur einen, und der für Starlink, logischerweise, denn zum einen gibt es nicht mehr viele Kunden und zum anderen sind dann nicht Dritte durch die Coronaeinschränkungen betroffen. Ausländer dürfen ja gar nicht erst einreisen.

Spektakulärer war da die Explosion eines Prototypen bei einem Test. Es ist schon die dritte innerhalb eines halben Jahres. Ich erwarte ja nicht viel von SpaceX, aber ich dachte nach fast 20 Jahren haben sie etwas Erfahrung im Bau von Raketen. Die ersten Falcon 1 Starts scheiterten daran, dass man bei SpaceX dachte, man könne auf Dinge verzichten die nicht umsonst sich in 60 Jahren Raumfahrt etabliert haben wie Prallblechen um das Treibstoffschwappen zu reduzieren oder Retroraketen um die Kollision, der Ersten mit der zweiten Stufe zu verhindern. Bei dem Jungfernflug der Falcon 9 gelangte immerhin die Nutzlast in einen Orbit, auch wenn es noch Vorfälle gab, wie ausbleibende Wiederzündungen, die Fastkollision mit dem Startturm beim Jungfernflug und die taumelnde Nutzlast im Orbit oder Triebwerksausfälle. Das SpaceX noch immer anders tickte merkte man, als bei einem Start sich ein Riss in der Düse der Oberstufe zeigte und man diese Düse nicht austauschte, sondern einfach kürzte.

Aber das ist auch schon fast 10 Jahre her und inzwischen ist die Firma etabliert und sollte Erfahrungen im Raketenbau haben - dachte ich. Aber es scheint so zu sein, als würde man bei SpaceX immer auf der grünen Wiese neu anfangen. Anders kann ich es mir nicht erklären, dass ein Prototyp schon beim Betanken explodiert oder schrumpft. Zumindest zum Schrumpfen gibt es Parallelen. Die Atlas hatte so dünne Tankwände, dass sie nur unter Innendruck stabil war. Es gab mindestens zwei Vorfälle, wo diese Druckbeaufschlagung versagte und die Hülle kollabierte. Es gab auch mal eine Parallele zu SpaceX: am 11.5.1963 kollabierte eine Atlas-Agena, als man den Sauerstofftank entleerte und kein Druckgas das Volumen ausfüllte.

Die Geschichte zeigte dann: die dünnen Tanks waren zu dünn. Alle Atlas, die als Trägerraketen eingesetzt wurden, bekamen nachdem die Atlas bei Mercury Atlas 1 bei Erreichen von Max-Q durch die aerodynamischen Belastungen durch die Nutzlast kollabierte, dickere Wände, die das Trockengewicht der Tanks um 50 % erhöhten. Nur mussten diese Atlas nicht landen. Die Belastungen sind da noch viel höher. Die Belastungen bei der Falcon 9 sind natürlich geheim, aber die ersten Stufen kamen nur in Bruchstücken am Boden an. Bekannt sind die Belastungen bei den EPS Boostern der Ariane 5. Die maximale Verzögerung liebt bei 22 g, beim Aufstieg sind es maximal 4,8 g und maximale thermische Belastung bei 30 kW/m², beim Abstieg sind es 40 kW/m². Wenn die Prototypen aber schon bei der Beaufschlagung auf Flugdruck versagen, wie wird das dann erst später werden? Später im Monat hat ein Prototyp dann endlich eine Druckbeaufschlagung überlebt, was die US-Medienportale dann auch feierten. Aber ein gelungener Test nach drei Fehlschlägen sagt nun wirklich nicht so viel aus. Vor allem wird interessant sein, ob sich mit den Nachbesserungen auch was an der Massebilanz ändert - siehe unten.

Ich vermute das neue Raumschiff ist mit der heißen Nadel gestrickt, wie bei der Falcon 9 mit irrealen Vorgaben. Bei der Falcon 9 musste man nachbessern. Doch zugeben kann man das nicht. So stehen auf der Website irreale 8,3 t GTO-Nutzlast während der Manager für Launch Services Koenigsmann vor Fachpublikum sie mit 6,5 t (ohne Bergung) angibt. Das wird für die Super Heavy wie das Starship gelten, doch bei dem Starship schlagen Erhöhungen der Masse deutlich zu: bei 100 t Nutzlast soll es 120 t wiegen. Das Masseverhältnis ist dann schon fast so ungünstig wie beim Space Shuttle. Das erste Starship soll ja auch 200 t wiegen, dann ist die Nutzlast fast gleich Null und ob man so einfach 40 % der Masse einsparen kann? Ich denke eher nicht.

Obwohl es inzwischen einen "Users Guide" gibt - in Anführungszeichen, weil man eigentlich nichts über das System erfährt, scheint man im Rest der Firma nichts von dem neuen Gefährt zu halten. Alle Kontrakte, die abgeschlossen wurden - und zwar auch langfristige wie der Start von Raumsonden erst ab 2026, oder noch später der Versorgungskontrakt für das Lunar Gateway basieren auf den Falcons. Mehr noch: um die von der NASA geforderten 4,4 t Fracht zum Gateway zu befördern reicht auch eine Falcon Heavy in der heutigen Form nicht aus. Anstatt nun also das viel leistungsfähigere Starship einzusetzen soll es eine neue Falcon Heavy Version geben. Immerhin: nicht nur ich, sondern auch die NASA erfährt nichts darüber, wie diese Version aussieht:

"Another weakness involved the performance of the Falcon Heavy, and suggested a new version of that rocket would be used for Dragon XL. "SpaceX could have been clearer in stating its launch vehicle's performance capability, especially since this configuration has not yet flown and thus, performance margins for lifting its Dragon XL are uncertain," Bowersox wrote. SpaceX did not respond to questions April 10 about any changes to the Falcon Heavy planned for Dragon XL missions."

Ich vermute SpaceX weiß selbst noch nicht wie die Falcon Heavy aussieht. Bei den derzeit bekannten Massen für Dragon V2 und Nutzlast der Falcon Heavy fehlt einiges: Die Dragon 2 soll 9,5 t ohne Treibstoff wiegen, dazu kommen 4,4 t Nutzlast. Die 14 t könnte eine Falcon Heavy gerade zum Mond transportieren, doch dort muss sie auch noch in eine Umlaufbahn eintreten, was Treibstoff erfordert und die Startmasse auf etwa 19 bis 20 t anhebt. Das ist deutlich mehr als die Falcon Heavy heute transportieren kann.

Während der Auftrag für die Versorgung des Lunar Gateways an SpaceX relativ logisch war, hat die Firma doch einen Versorger im Einsatz und ist derzeit die Einzige mit einer Trägerrakete, die auch den Mond erreichen kann, war überraschend das die Firma einen von den Erstkontrakten für einen Mondlander bekam. Die Einschätzung war dann auch nicht besonders toll:

Blue Origin:

Dynetics:

SpaceX:

Allerdings war SpaceX Kontrakt auch der kleinste (135 Mill. Dollar, Blue Origin: 579 und Dyntecis, trotz der besten Bewertung nur 323 Mill. $). Im Prinzip läuft die technische Kritik darauf hinaus, das SpaceX ohne Not das Starship als Mondlander einsetzt. Dafür ist die Mission ziemlich komplex mit Auftanken im Erdorbit und ehrlich gesagt, so stabil sieht es in den Abbildungen auch nicht aus - auf dem Mond ist es meist auch nicht so eben. Die Apollo Mondlander waren mehr breit als hoch, hatten dazu nach außen ragende Landebeine und hier landet ein Spargel ohne Beine und das soll gehen, ohne das es umkippt? Das schafft SpaceX ja nicht mal bei jeder Landung auf ihren Droneschiffen. Die schlechte Management Bewertung basiert vor allem darauf, das SpaceX seit dem COTS-Erstkontrakt von der NASA 2008 alle Zeitfristen gebissen hat und zwar deutlich. Eventuell startet Ende dieses Monats die erste bemannte Mission mit einer Crewed Dragon - Elon Musk hat das im Jahr 2014 schon für September 2016 angekündigt. Dabei hatte SpaceX, als sie den Auftrag bekamen, einen Riesenvorteil: anders als Boeing hatten sie schon einen unbemannten ISS-Versorger im Einsatz. SpaceX musste weniger entwickeln und konnten auf bewährte Systeme zurückgreifen. Die drei Jahre Vorsprung sind inzwischen auf wenige Monate zusammengeschmolzen.

Ich möchte kein Bashing betreiben, lest euch den Artikel selbst durch. Mit fällt nur eines auf: Das Starship soll ja 120 t wiegen, dazu käme noch die Nutzlast (nach Artikel bis zu 100 t). Das landet auf dem Mond und fliegt zurück zur Erde.

Okay, eine Lektion in SpaceX-Kritik für Fanboys. Die Saturn V konnte ~ 130 t in einen Erdorbit und knapp 50 t zum Mond bringen. Von den 50 t machte der Mondlander 16,5 t aus, von denen nur noch 2,2 t in den Orbit gelangten. Zurück zur Erde gelangten noch 5,5 t - die Kapsel. Alles andere wurde während der Mission sukzessive abgetrennt, um die Masse zu reduzieren.

Das Starship wiegt nach Musks Angaben 120 t ohne Nutzlast. Wie kann man auf die Idee kommen, die rund 20-fache Masse einer Apollomission zur Erde zurückzubringen?

Immerhin man kann es berechnen. Das dV aus einem Erdorbit für eine Mondtransferbahn sind 3.100 m/s. Weitere 3.000 m/s braucht man für eine Landung bzw. einen Rückstart, wenn man die Reserven und Ab- / Aufstiegsverluste von Apollo zugrunde legt. Wir sind dann insgesamt bei einem dV von 9100 m/s, also fast so viel wie ein Starship benötigt, um einen Erdorbit zu erreichen. Auf Basis der Raketengleichung und einem reklamierten spezifischen Impuls von 382 s (CEA2 errechnet nur einen von 375, aber bestimmt gibt es bei SpaceX eine andere Physik ..) kann man leicht errechnen, dass man dafür ein Massenverhältnis von 11,34 braucht. Mit anderen Worten: bei 120 t Masse im Erdorbit muss man etwa 1.240 t Treibstoff zuladen, um die Mission durchzuführen. Das ist sogar mehr als das Starship als zweite Stufe beim Start wiegt. Man kann überschlagen, wie viele Tankflüge man braucht. Die Nutzlast bei einer LEO-Mission soll ja 100 t betragen. Ohne Nutzlast verbleibt dann Treibstoff in den Tanks - es sind nicht 100 t, weil die Rakete ohne Nutzlast leichter ist, aber nicht enorm viel mehr. Ich habe es mal simuliert, wobei alle Daten der Kombination ja spekulativ sind und komme auf 117 t. Doch dann reden wir immer noch von 10 bis 11 Tankflügen. LOX und Methan Gase sind zudem nur bei tiefen Temperaturen flüssig. Also ewig Zeit kann man sich damit (selbst bei guter Isolation) auch nicht lassen.

Kurz das Konzept geht nur auf, wenn das Starship Musks Versprechungen einhält, und zwar hinsichtlich Startrate und Kosten pro Flug. Aber Musks Versprechungen wurden noch nie eingehalten, weder bei Kosten, noch Performanceparametern und schon gar nicht bei Zeitplänen. Was da intern bei SpaceX passiert, würde mich schon interessieren. Also entweder redet die Abteilung die Verträge abschließt nicht mit der, welche die Technik entwickelt, oder sie muss Elon Musks Vorgaben gehorchen, auch wenn diese nicht umsetzbar sind.

Ich vermute mal, wenn es jemals zum Starship kommt, wird es anders sein als jetzt propagiert: schwerer, mit weniger Nutzlast. Das ist ja nicht neu. Auch die Space Shuttles sollten mal 68 t wiegen, lagen real aber zwischen 79 und 82 t. Und wie beim Space Shuttle reduziert das die Nutzlast dann deutlich. Bei jeder anderen Firma hätte ich auch gesagt: es kommt nie. Denn es gibt keinen Markt dafür. Niemand braucht eine Rakete für 100 t Nutzlast, die nicht mal ohne Nutzlast einen GTO-Orbit erreicht. Aber bei SpaceX haben wir ja schon Erfahrungen mit der Falcon Heavy - auch für die gab es keinen Markt und gebaut wurde sie trotzdem.

7.5.2020: Die Lösung für ein überflüssiges Problem - wann lohnt sich ein Raspberry Pi im Weltraum?

Heute wieder mal Blog zu einem speziellen Thema. Es geht um die für die Raumfahrt geeigneten Computer. Betrachtet man sich die letzten 40 Jahre, so sieht man eine Tendenz: sie haben gegenüber der "irdischen" Hardware deutlich an Leistung verloren. Als 1981 das Space Shuttle abhob, waren ihre Bordcomputer, die auf der System 360 Architektur basierten, noch deutlich schneller als Computer, die man als Privatperson kaufen konnte (mit einem Großrechner kann man die Rechner natürlich nicht vergleichen, schon alleine wegen des Gewichts, Volumens oder Stromverbrauchs, aber Rechner in Raumfahrzeugen haben in etwa das Volumen eines PC. Die Shuttles hatten 32 Bit Prozessoren mit 416 KByte Speicher pro Rechner, ein Heimcomputer wie der ZX80, Ti 99/4a oder VC20 einen 8 Bit Prozessor mit 1 bis 16 KByte Speicher.

Bis Anfang der Neunziger Jahre hatten Mikroprozessoren aufgeholt und zeitweise wurden sogar normale Mikroprozessoren in Raumfahrzeugen verwendet, so ein 8086 in Rosat und ein 386 in Hubble. Seitdem hinkt die weltraumtaugliche Hardware der irdischen hinterher.

Die Anforderungen an die Bauteile sind im Weltraum höher. Man denkt zuerst an die energiereiche Strahlung, sowohl geladene Teilchen, wie die des Sonnenwinds, wie auch ionisierende Strahlung wie Röntgen- oder Gammastrahlung werden von der Erdatmosphäre abgefangen. Sie kann Ströme in einem Schaltelement induzieren oder Bits umkippen lassen. Dazu kommt, dass die Temperaturextreme höher sind. Früher wurden "militärische" Hardware eingesetzt. Jeder Hersteller hatte eine Fertigungslinien mit "military grade" Elektronik. Sie hatte eine höhere Toleranz gegenüber zahlreichen Umgebungsparametern und wurde z.B. in Flugzeugen oder Lenkwaffen verwendet. Heute lohnt sich das für die großen Hersteller nicht mehr, denn anders als in den Siebzigern und Achtzigern ist heute der Massenmarkt viel größer als der militärische Markt.

Ein Grund, warum die weltraumtaugliche Hardware hinterhinkt, ist dass die Investitionskosten in neue Fabriken um so höher sind, je kleiner die Strukturbreiten sind. Das kann man mit dem Absatz von einigen Tausend Bauteilen natürlich nicht bei aktuellen Fabs ,die Milliardeninvestition erfordern, rechtfertigen.

Im Einsatz sind heute Prozessoren auf Basis des PowerPC 750 und der Sparc 7 Architektur. Beides sind Prozessorarchitekturen aus der zweiten Hälfte der Neunziger. Entsprechend haben sie Leistungsdaten wie ein PC aus dieser Zeit z.B. einen maximalen Takt von 200 MHz. In den letzten Jahren hat sich wenig getan, wenn dann versucht man auch nicht eine schnellere Architektur zu verwenden, sondern die Architektur mit FPGA zu verbinden, ein FPGA führt dann in der Hardware einen rechenintensiven Algorithmus aus.

Nach dieser Einleitung die heutige Problemstellung: Für das, was die Prozessoren meist leisten müssen, das sind Steuerungsaufgaben reichen sie aus. Eine Parallele kann man zur Makerszene ziehen: die 8 Bit Atmel Mikroprozessoren sind noch deutlich leistungsschwächer, reichen aber für Steuerungsaufgaben vollkommen aus. Schlussendlich muss keine grafische Benutzeroberfläche erstellt werden oder 60 Frames einer Spielszene pro Sekunde neu berechnet werden. Es gibt aber durchaus auch Aufgaben die mehr Rechenleistung erfordern. Erdbeobachtungssatelliten könnten Bilder auswerten und anhand der Helligkeits- und Kontrastverteilung Bilder mit zu vielen Wolken gar nicht abspeichern. Raumsonden können die Belichtungszeit jedes Bildes basierend auf dem letzten optimal anpassen - man muss sich nur Cassinis Aufnahmen der Eismonde ansehen - die Belichtung ist oft zu hoch, und die Bilder extrem hell. Bei Satelliten, die die Erde oder einen Planeten in Streifen kartieren, nimmt die Breite eines Streifens zu den Polen hin ab. Diese Teile müsste man ebenfalls nicht speichern, das bedeutet immerhin das man 57 % mehr pro Tag abbilden kann. Für die heutigen rechenintensivsten Aufgaben der Datenaufbereitung, vor allem Komprimieren und Codieren mit Wiederherstellungsinformationen gibt es aber schon lange Spezialchips.

Meine Idee: Anstatt Spezialhardware zu entwickeln, nimmt man normale Hardware und schirmt diese ab. Die Abschirmung erhöht natürlich das Gewicht. Theoretisch kann ich daher einen Punkt bestimmen, ab dem dieses erhöhe Gewicht multipliziert mit den Startkosten pro Kilogramm die niedrigen Kosten für die Hardware erreicht. Alles, was weniger wiegt, ist dann günstiger. Die Preise für Weltraumhardware sind weitestgehend unbekannt, doch ein weltraumtaugliches BAE 750 Board soll 100.000 Dollar kosten.

Das erste was man bei dem Ansatz tun muss, ist es die nötige Abschirmung zu ermitteln. Ich binfür die nötige Abschirmung von der ISS ausgegangen. Die Astronauten verwenden zum Teil normale Konsumerhardware wie Notebooks. Die wird zwar modifiziert, aber das dient vor allem dem Brandschutz. So werden nicht benötigte Schnittstellen versiegelt oder Akkus ausgetauscht oder entfernt. Die Elektronik ist aber dieselbe. Das ist auch logisch, denn die Argonauten selbst dürfen ja auch nicht durch die Strahlung gefährdet sein, das heißt die Abschirmung muss ausreichen das sie keine Gesundheitsgefahr haben und Menschen sind immer noch empfindlicher als Elektronik. (Etwa um den Faktor 5 bis 10).

Die reine Struktur eines ISS Moduls finden wir in den MPLM, Transportmodulen des Space Shuttles. Eines wurde auch zum ISS Modul umgebaut. Bei den normalen ISS Modulen erhält man die Startmasse des Moduls, die durch Installationen höher ist. Ein MPLM wog 4.100 kg bei einem Durchmesser von 4,60 m und 6,4 m Länge. Modelliert als Kreiszylinder, hat es dann eine Oberfläche von 110 m². Bei 4.100 kg Masse wiegt ein Quadratmeter also 37,2 kg, da die Hülle aus Aluminiumlegierungen besteht, ist sie bei einer angenbommenen Dichte von 2,8 g/cm³ rund 13,3 mm dick.

Ich fange mal als möglichem Bordrechner mit einem Raspberry Pi an. Schon das erste Modell war schneller als ein BAE 750. Der aktuelle Pi 4B ist fünfmal schneller als das Erstmodell. Ein aktueller PC Prozessor ist pro Kern nochmals viermal schneller. Wir reden also von einer Steigerung der Geschwindigkeit um einen Faktor von mindestens 10, nimmt man die höhere Kernzahl gegenüber dem BAE 750 hinzu dann ist ein PC Prozessor mehr als 100-mal schneller.

Der Vorteil des Raspberry PI ist, das er sehr kompakt ist. Ein Gehäuse hat Abmessungen von 7 x 9,5 x 3 cm. Mit 13,3 mm Abschirmung wäre das ein Aluminiumblock von 96,6 x 116,6 x 56,6 mm. Die Platine aus diesem Volumen herausgerechnet sind das 636 cm³, die bei einer Dichte von 2,8 g/cm³ rund 1,79 kg wiegen.

Im aktuellen Heft der ct' wurden Mini-PC vorgestellt. Der Kleinste hat ein Gehäuse von 175 x 175 x 34 mm. Entsprechend mit 13,3 mm Aluminium abgeschirmt sind es 201,6 x 201,6 x 60,6 mm und ein Gewicht von 4 kg.

In beiden Fällen gibt es Optimierungen. Die Höhe beider Gehäuse wird durch die Schnittstellen bestimmt, beim PC auch durch den Lüfter. Bei einem Alublock als Kühlkörper ist der verzichtbar und Schnittstellen kann man an jede Seite legen, um zwei Buchsen übereinander zu vermeiden. Zudem ist nicht gesagt, dass eine Platine nur einseitig bestückt sein muss und man kann die Breite verkürzen und dafür mehrere Platinen übereinander montieren. Bei mehreren Bordcomputern (zur Redundanz) kann man diese zusammenlegen und so ebenfalls Abschirmung sparen.

Doch auch 4 kg im Worst Case sind eine Ansage. Bei 100.000 Dollar pro weltraumtauglichem Mainboard muss der Transportpreis pro Kilogramm 25.000 Dollar erreichen, um äquivalente Kosten zu verursachen. Ein Vergleich mit Startpreisen zeigt, dass fast jede Rakete in den LEO niedriger liegt, auch im GTO ist das noch so. Im GEO - entsprechendes gilt wegen der Geschwindigkeit auch für Venus- oder Marsmissionen - liegt eine Ariane 5 leicht drüber, eine Ariane 6 deutlich darunter. Bei SpaceX hängt es von der Satellitenmasse ab, da hier keine Doppelstarts zur maximalen Nutzlastausnutzung möglich sind. Beim Raspberry PI ist durch das geringere Gewicht der Vorteil sogar noch größer.

Dafür bekäme man aber auch mehr Rechenleistung. Sofern die benötigt wird, wäre die Abschirmung also eine Alternative. Die Idee ist ja nicht neu. Bei JUNO wurde nicht nur der Bordcomputer, sondern alle Teile die eine Elektronik enthielten wie die Inertialplattform in einen "Safe", einem Kasten aus Titan mit dicken Wänden verpackt. Nur hat man eben nicht jedes Teil abgeschirmt, sondern alle zusammen. Damit kommt die normale weltraumtaugliche Hardware auch bei Jupiter zurecht, obwohl die Hardware 1000-mal höherer Strahlung ausgesetzt ist. (weltraumtaugliche Hardware ist zehn bis zwanzigmal strahlungstoleranter als kommerzielle). Das müsste dann auch eine Reduktion in einem Erd- oder Sonnenorbit um den Faktor 1000 bewirken und damit wäre man selbst im Van Allen Strahlungsgürtel weit unter den maximalen Dosen. Die Abschirmung des Safes von Juno ist vergleichbar mit der oben angenommen (1 cm dicke Titanwände, entsprechend 45 kg/m²).

Kurz: Wenn man den Bedarf nach mehr Rechenleistung hat, wäre es meiner Ansicht nach eine gute Idee, auf einer Technologiemission einfach mal kommerzielle Designs in dieser Art abgeschirmt zu testen. Was der Vorschlag natürlich offen lässt ist die Lebensdauer. Kommerzielle geostationäre Satelliten haben eine Designlebensdauer von 10 bis 15 Jahren und leben oft noch länger. Raumsonden sind noch länger in Betrieb. Ob kommerzielle Prozessoren wie auch die anderen Komponenten eines Mainboards so lange durchhalten? Hier dürften PCs oder Server schon wegen der Verbesserung der Rechenleistung, Neueinführung von Peripherie mit anderen Schnittstellen viel früher ausgewechselt worden sein.

8.5.2020: Parallelstufung, Serienstufung oder Abwurf?

Mit nur einer Stufe kommt man zwar in den Orbit, die Nutzlast ist aber dann sehr klein. Also braucht man mehrere Stufen. Neben der Serienstufung - eine Stufe zündet nach der anderen - gibt es noch verschiedene Konzepte der Parallelstufung. Bei einer Parallelstufung zünden mehrere Stufen gleichzeitig, eine hat aber früher Brennschluss und wird abgeworfen. Da gibt es etliche Subkonzepte:

Man kann das noch feiner unterteilen, nur als Beispiel möchte ich die homogene Parallelstufung nennen. Da kann man Folgendes machen:

Grundlagen

Der Nutzen ergibt sich einfach aus der Raketengrundgleichung: je früher man tote Masse abwirft, desto höher ist die Endgeschwindigkeit oder bei gleicher Endgeschwindigkeit die Nutzlast. Während das bei leeren Tanks offensichtlich nützt, ist es bei den Triebwerken nicht ganz so einfach. Der Abwurf von Triebwerken bedeutet auch weniger Schub, damit weniger Beschleunigung und braucht die Rakete länger um die Orbithöhe zu erreichen, was höhere Gravitationsverluste bedeutet. Ignoriert man die Gravitationsverluste, so ist eine Parallelstufenrakete immer schlechter als eine Serienstufenrakete, denn beim Abwerfen der Booster ist die Stufe ja zum Teil entleert, weist also ein höheres Voll- / Leermasseverhältnis auf. Durch die Gravitationsverluste wird es schwieriger, denn eine zweite Stufe hat meistens viel weniger Schub als die Zentralstufe und damit eine längere Brennzeit.

Daneben ist der Effekt je nach Treibstoffkombination unterschiedlich. Man muss zwischen Wasserstoff und anderen Treibstoffen unterscheiden. Wasserstoff hat eine Dichte von 0,0682 g/cm³, die meisten anderen Treibstoffe haben eine Dichte von 0,8 bis 1 g/cm³. Methan als Ausnahme liegt mit 0,45 g/cm³ dazwischen. Daneben benötigt Wasserstoff wegen des kleinen Intervalls, in dem er flüssig ist und der geringen Dichte eine Isolation, die bei allen anderen Treibstoffen und dem Oxidator LOX entfallen kann. Tanks für Wasserstoff/Sauerstoff wiegen so dreimal so viel wie die für andere Kombinationen. Bei einer LOX/LH2 Stufe wiegt so der Antriebsblock etwa ein Drittel der Gesamtmasse, die Tanks zwei Drittel oder sogar noch mehr (z.B. bei Oberstufen mit schubschwachen Triebwerken). Bei anderen Treibstoffen machen die Triebwerke den Großteil der Masse aus, meistens die Hälfte, es können aber auch mehr sein.

Simulation

Der Nutzen ist nur praktisch berechenbar. Ich habe wegen des größeren Effekts des Einflusses der Tanks eine Wasserstoff-Sauerstoff Rakete genommen mit folgenden Eckdaten:


Masse voll

Masse leer

Schub

Brennzeit

Spezu Impuls [Vakuum]

Zentralstufe

120 t

12 t

1.000 kN

461 s

4.000 m/s

Booster

4 x 60 t

4 x 6,5 t

4 x 1.000 kN

211 s

4.000 m/s

Oberstufe

30 t

3 t

200 kN

587 s

4350 m/s

Stufe beim Abwurf von Tanks oder Triebwerken

360 t, davon 240 t Abwurfanteil

38 t (17,3 t Tanks, 8,7 t Antrieb, 12 t zentrale Stufe

5.000 kN

variabel

4.000 m/s


Worauf ich achtete, war das in allen Varianten die Parameter Schub und Massen in der Summe identisch sind. Damit sind die Ergebnisse vergleichbar. Der Zielorbit ist ein 200-km-Kreisorbit mit einem Flugazimut von 90 Grad von Cape Kennedy aus (200 x 200 x ~ 27 Grad)

Hier nun die Ergebnisse:

Typ

Nutzlast

Parallelstufe (4 x 65 t + 120 t)

21,2 t

Serienstufung

22,0 t

Eine Stufe mit 360 t Masse

21,3 t

Abwurf Tanks

25,9 t

Abwurf Triebwerke

19,3 t

Crossfeeding

16,6 t

Das Ergebnis zeigt es deutlich: Die klassische Parallelstufung, die Serienstufung aber auch eine Stufe mit 360 t Masse (anstatt einer Zentralstufe mit 120 t und vier Boostern mit 60 t, die auch zusammen 360 t wiegen) liegen in der Nutzlast ziemlich gleichauf. Bei der Einstufenlösung heben sich die Effekte geringere Brennzeit und dadurch flachere Aufstiegskurve und dafür hohe Brennschlussmasse nahezu auf. In der Praxis hätte natürlich eine größere Stufe ein etwas günstigeres Masseverhältnis als die Kombination aus vier 60 t Boostern und 120 t Zentralstufe, das würde die Nutzlast wahrscheinlich noch um eine weitere Tonne anheben. Für einen erdnahen 200 km Orbit reichen auch zwei Stufen vollkommen aus. Größere Unterschiede würde es erst bei größeren Zielgeschwindigkeiten wie Fluchtbahnen geben.

Es ist ungünstiger gegenüber obigen drei Optionen, die Triebwerke abzuwerfen. Denn dadurch verliert man Schub. Man kann hier sicher noch etwas optimieren, der Abwurfzeitpunkt wurde ja, um vergleichbar zu sein nach demselben Treibstoffverbrauch wie bei der Parallelstufung festgelegt. Etwas später, wie es bei der Atlas der Fall war, wäre sicher besser.

Allerdings sind die Tanks immer tote Masse und sie wiegen doppelt so viel wie die Triebwerke und erzeugen keinen Schub. In diesem Beispiel bringt es deutlich mehr Nutzlast, wenn man die Tanks vorher abwirft. Konstruktionsmäßig könnte man dies so realisieren, dass alle Triebwerke sich in der Zentralstufe befinden - sie würde an der Basis dann deutlich breiter sein und die Tanks außen sitzen und bei Leerung dann abgetrennt werden. Sie würden zuerst verbraucht werden, dann erst die Tanks der Zentralstufe.

Das "Crossfeeding", also der Verbrauch des Treibstoffs zuerst der Außenblocks auch durch die Zentralstufe dann erst Verbrauch der Zentralstufe ist bei dieser Rakete ungünstiger. Das hat mich zuerst auch etwas verwirrt, behauptete SpaceX doch das Gegenteil (hat es aber auch nie umgesetzt). Es ist, wenn man sich die Daten ansieht aber schlüssig. Bei der Falcon 9 war es immer so, das eine Core alleine abheben kann, das kann diese Rakete nicht. Sie wiegt bei Stufentrennung 170 t und hat dann etwa 110 t Schub, das bedeutet, die Booster müssen die Aufstiegsbahn so steil anlegen, dass sie davon zehren kann. Damit bauen sie aber kaum horizontale Geschwindigkeit auf. Die Rakete erreicht auch die höchste Gipfelhöhe von 261 km von allen simulierten Fällen.

Noch ein kleines Nachwort: das war ein durchgerechnetes Beispiel und andere mögen in den Details anders liegen zudem gäbe es auch noch Optimierungen, die man dann für jeden Fall einzeln anstellen könnte wie die Stufenmassen und Schub zueinander anzupassen die Zweitstufe kann man auch noch modifizieren und mit LOX/Kerosin ergeben sich wieder andere Massenverhältnisse und Stufenverhältnisse. Besonders bei Crossfeeding müsste die zentrale Stufe genügend Schub haben, um nach Stufentrennung über 1 g zu beschleunigen. Aber ich denke der Trend ist relativ klar.

9.5.2020: Klimapolitik: lasst Taten sprechen, anstatt darüber zu reden und die DFL

Am 7.5. jährte sich für mich ein zweites Kerndatum, auf das ich schon gespannt war, dann hat der neue Zähler 1 Jahr auf dem Buckel. Er kam mit der neuen PV-Anlage und damit kann ich erstmals meinen Eigenverbrauchsanteil spezifizieren.

Für alle die keine haben: Der Strom der PV-Anlage wird in das Hausnetz eingespeist und deckt dann zuerst mal den Eigenverbrauch ab. Ist ein Überschuss vorhanden, so wird er ins allgemeine Netz eingespeist und das wird gezählt. Benötigt man Strom, wird er ebenfalls gezählt. Da eine Kilowattstunde im Bezug wesentlich teurer ist als die EEG-Umlage (bei mir 31 zu 11 ct) ist es natürlich günstig, möglichst viel selbst zu verbrauchen. Ich habe mich in meinem Verhalten angepasst: Wasch- und Spülmaschine laufen meist Mittags, ebenso wenn ich was backen muss.

Es gibt natürlich Erfahrungswerte über den Eigenverbrauch. Genannt werden 35 bis 40 Prozent des vorherigen Stromverbrauchs. Das klingt zuerst mal nach wenig. Auf der anderen Seite: im Mittel ist über das Jahr scheint nur an 50 % der Zeit die Sonne, und wenn es bedeckt ist, geht die Leistung der Anlage stark in den Keller. Das reicht dann für stromhungrige Verbraucher wie den Herd nicht mehr. Trotzdem meinte ich, da ich ja viel zu Hause bin, bei mir viel Strom in die Computertechnik geht, was eine Dauerlast ist, aber nicht mit hohem Strombedarf, ich käme auf 50 %.

Anfangs sah es auch gut aus. Bis September lag der durchschnittliche tägliche Verbrauch nur bei 2 kWh, übers Jahr also 730 kWh. Vorher hatte ich einen Verbrauch von 2.058 kWh. Aber Sommer geht zu Ende. Im Winter sind die Tage kurz, oft bedeckt, daneben läuft dann auch die Heizungsumwälzpumpe und man braucht mehr Strom für die Beleuchtung. Im Winter kletterte mein Verbrauch im Dezember und Januar im Schnitt auf 5 kWh täglich.

So kam nun der spannende Moment der Abrechnung und so sah es am 7.5.2020 aus:

Parameter

KWh

Eingespeister Strom:

6.385

Bezogener Strom:

1.170

Eigenverbrauch:

966

Eigenverbrauchsanteil:

45 %

Also die fünfzig Prozent habe ich nicht erreicht, aber doch nahe dran. Obwohl ich das Gefühl hatte, das ich mehr verbrauche, da ich nun Wasch- und Spülmaschine eher laufen lasse, wenn das Wetter schön ist, anstatt wenn sie voll sind, ist der Gesamtverbrauch mit 2.137 kWh nicht so viel höher.

Okay, das war nun ein persönlicher Teil, kommen wir zum offiziellen Teil. Wie schon angekündigt spielte ich mit dem Gedanken auch auf die zweite Dachhälfte eine PV-Anlage zu montieren sogar eine größere. Ich halte das in meiner Situation für das Energieeinsparen für eine bessere Lösung als Dämmen, denn während ich durch Dämmen etwas Energie einsparen könnte, erzeugt die PV-Anlage wesentlich mehr Energie, als ich so einsparen könnte bei vergleichbaren Kosten. Für das Klima ist es ja egal, ob ich Strom erzeuge, der dann von einem E-Mobil oder anderen Haushalten genutzt wird und so Benzin oder Kohle/Gasstrom einspart oder ob ich weniger heize. Aber in der Summe ist zumindest in meiner Situation die PV-Anlage um den Faktor 3 effizienter.

Also habe ich die Firma kontaktiert, die sie gebaut hat und erfuhr, dass sie gerade viel zu tun haben. Der Grund: Im Sommer ist die "52 GW Grenze" erreicht. Okay, was ist diese ominöse 52 GW Grenze? Als die rot-grüne Koalition 2001 das EEG-Gesetz beschlossen hat welches die Grundlage für die Vergütung des Stroms ist wurde eine Grenze gesetzt: Das Ganze sollte auslaufen, wenn 52 GW Peakleistung erreicht sind. Und das ist eben im Sommer der Fall. Was bedeutet das? Danach muss der Netzbetreiber den Strom nicht mehr nach EEG-Tarif abnehmen, er muss ihn abnehmen aber er wird das zahlen, was auf dem freien Markt für Strom üblich ist und der stammt eben immer noch zum größten Teil aus billiger Kohle oder Gas. Im November 2019 kostete Strom an der Börse im Mittel 4,1 ct. Die Vergütung nach EEG liegt dagegen am 1.4. bei 9,46 ct/kWh. Meiner persönlichen Rechnung nach liegt ein PV-Anlage über 20 Jahre bei ungefähr plus minus null, berechnet man Wartungskosten und den Ersatz des Wechselrichters hinzu, der auch nicht ewig hält. Wenn man allerdings nur die Hälfte der EEG-Vergütung bekommt, dann ist sie nicht mehr wirtschaftlich.

Das Pikante: Das man diese 52-GW-Grenze streicht, dafür waren sogar die Oppositionsparteien. Es macht auch Sinn, denn die Vergütung nach EEG sinkt laufend, vor einem Jahr lag sie im April noch bei 11,11 ct also 15 % höher. Zwar werden auch die Module immer billiger, aber nicht die Löhne der Handwerker die die Anlage bauen. Das bedeutet, dass alleine dadurch es einen Punkt geben wird, ab dem man drauf zahlt. Daneben fallen nach 20 Jahren die ersten Anlagen aus der Förderung die damals noch 50 ct/kWh bekamen. Zudem musste die EEG-Umlage für den Strom seit Jahren nicht mehr erhöht werden. Langfristig wird durch die Kohlendioxidsteuer auch der normale Strom teurer. Erdgas liegt um 0,5 kg Kohlendioxid/kWh Kohle um 0,9 bis 1,1 Kohlendioxid/kWh je nach Typ. Das macht 2 bis 4,4 ct/kWh aus, wenn in einigen Jahren die Kohlendioxidsteuer bei 40 Euro/t liegt. Doch das ist erst das Ziel in einigen Jahren und ich wette bis dahin wird aufgrund der Steuer dann auch der meiste Strom aus Gaskraftwerken stammen und so der Strompreis nicht so stark ansteigen. Aber das ist erst in einigen Jahren und ist bis dahin die Solarbranche down, so wird es sie auch danach nicht mehr geben.

Das ist nur ein Punkt wie Worte und Taten doch der Merkel-Regierung ellenweit auseinanderklaffen. Andauernd das Geschwafel von Merkel man müsse was fürs Klima tun und nun auch die Krise dafür nutzen und gleichzeitig wird das Klimapaket zum Klimapacketchen verschärft für Windenergie sogar die Ortseinschränkungen. Nun will die Automobilindustrie Gelder, und zwar für stinknormale Autos mit Verbrennungsmotoren und ich wage zu prognostizieren, sie wird sie auch bekommen. Dabei hat das schon vor 11 Jahren mit der Abwrackprämie nicht funktioniert, denn neu gekauft wurden vor allem ausländische Autos. Ist eigentlich auch logisch. Die sind in der Summe eher billiger als deutsche Fabrikate und wegen einiger Tausend Euro Prämie kauft man sich kein neues Auto, wenn er schon ein nicht so altes und hochwertiges Auto hat. Das nutzen also vornehmlich die aus, deren Autos einen geringen Restwert hatte. So wird es bei einer neuen Prämie auch sein. Es gibt ja andere Branchen, die auch in der Krise stecken, so die gesamte Gastronomie und Tourismusbranche - da dort nichts automatisierbar ist, arbeiten dort mindestens genauso viele Menschen wie in der Automobilbranche. Wie wäre es mit einem Restaurantgutschein für jeden Bundesbürger anstatt Abwrackprämie?

Vor allem verzeichnet die Branche ja Gewinne. VW alleine dieses Jahr 19 Mrd. Euro und anstatt diese Gewinne in einer Krise zu nutzen schreit sie nach Staatskohle und schüttet die Gewinne als Dividenden aus. Woanders ist man weiter: In Nachbarländern bekommen Unterstützung nur bedürftige Betriebe, keine die Gewinne machen. Mein - schon mehrfach geäußerter Aufruf an die Bundesregierung: lasst die Automobilindustrie sterben! Sie steckte 2009 in der Krise und sie steckt jetzt in der Krise. Anders als die Banken hat sie es in zehn Jahren also nicht geschafft sich gegen Krisen zu wappnen. Auch 2009 war das Thema Klima schon aktuell. Die rot-grüne Koalition hatte Jahre zuvor einige Weichen bei der Stromproduktion gestellt. Lithiumbatterien gab es auch schon, an Wasserstoff wird seit Jahrzehnten geforscht. Die Klimaproblematik mit konkreten Vorgaben ist seit 1992 ein Weltziel. Trotzdem hat sie weiter gemacht wie bisher. Gab es seitens der EU Senkungen von Grenzwerten, dann hat die deutsche Regierung diese verhindert oder idiotische Regelungen eingeführt, wie die das Elektroautos in der "Bilanz" nicht nur keine Emissionen haben, sondern sogar negative Emissionen haben, was dazu führte das die Automobilhersteller nur Elektrowagen produzierten die sie auf sich selbst zuließen um ihren Flottendurchschnitt zu senken. Der Verkehr ist der einzige Sektor der seit 1990 an den Emissionen zugelegt hat. Nun da andere europäische und US-Firmen Elektroautos produzieren und gut verkaufen, weil die deutsche Industrie jahrlang geschlafen hat haben sie eine Prämie vom Staat durchgesetzt. Kurz wir haben eine Industrie, die nicht innovativ ist, dem weltweiten Standard hinterherhinkt, neue Produkte nur entwickeln kann, wenn der Staats sie quer subventioniert, nach Staatsgeldern schreit aber selbst den Aktionären Dividenden ausstößt. Wie kann man da auch nur noch einen Euro Steuergeld hinterherwerfen? Natürlich ist es eine große Industrie und beschäftigt viele. Aber dann gebt die Gelder doch eher dafür aus neue Arbeitsplätze in Zukunftsbranchen zu schaffen. Das man ganze Industrien untergehen lässt obwohl viele in ihnen beschäftigt sind ist ja nicht neu. Das war nach 1990 auch in der DDR so. Der kleine Unterschied: das war damals für die "bundesdeutschen" noch neues Land und Lobbisten hatten die DDRler auch nicht.

Übertroffen wird das eigentlich nur von der Bundesliga. Die Vereine in den ersten beiden Ligen sind ja keine gemeinnützigen Vereine mehr. Sie sind Unternehmen, einige sogar börsenorientiert. Sie machen Gewinne - die ganze DFL letzte Saison ein Umsatz von 4,8 Mrd. Euro und sie hauen das Geld wieder raus, indem sie z.B. zweistellige Millionenbeträge als Ablösesummen zahlen oder Spieler Millionen pro Saison verdienen. Die 36 Vereine geben alleine für Spieler und Trainer 1,67 Milliarden Euro aus - wenn das 30 Personen pro Verein sind, dann sind das bei 36 Vereinen rund 1000 Personen die jeweils 1,67 Millionen verdient haben. Halbiert man dies und ich denke das ist immer noch ein großzügiges Gehalt, dann blieben von den 4,8 Milliarden nicht 141 sondern 976 Millionen Gewinn übrig.

Aber während alle anderen Sportarten die Saison einfach beendet haben kommt die Bundesliga nicht aus, ohne wenigstens die Saison ohne Publikum zu Ende zu spielen. Ganz einfach weil die Eintrittsgelder nur einen kleinen Anteil der Einnahmen ausmachen. Die Übertragungsrechte einen viel größeren. Konkret: 538 Millionen zu 1.770 Millionen. Und für die Spieler gelten dann nicht die Hygienevorschriften, die für alle anderen gelten. Ich befürchte sogar, das es noch schlimmer kommt wenn sich Hunderte von Fans vor den Stadien versammeln, wie das schon im März bei Geisterspielen der Fall war, und dann sicher nicht mit Maske und Mindestabstand. Wenn andere Unternehmen keine Rücklagen bilden für Notsituationen, dann sagt man ja auch "selbst Schuld". Warum sollte man die DFL anders behandeln als alle anderen Sportarten aber auch die anderen Fussball-Ligen die es ja auch noch gibt?

Immerhin wenn Geisterspiele einziehen, dann kann die DFL mal über was nachdenken. Da es ja nur um Geld geht, nicht um Fußball, kann man in Zukunft viel Geld einsparen. Denn Flussbad können die Profis auch auf einem kleinen Sportplatz irgendwo in der Pampa spielen. Den fehlenden Einnahmen durch Eintrittsgeldern stehen Ausgaben für das Stadium und die vielen Personen, die für das Stadium und die Versorgung / Sicherheit beschäftigt sind. Die Stadien kann man abreißen und die Grundstücke in guter Lage sind einiges wert. Dann würde wahrscheinlich auch der Ultra-Fan kapieren, dass es nur um Geld geht und gute Platzierungen nur angestrebt werden, um in die Zonen zu kommen, in denen man in den Europaligen spielen kann um noch mehr zu verdienen. Das ganze Modell klappt nur, wenn es optimal läuft. Die Aussage eines VfB-Experten, als der VfB letztes Mal aufstieg: er wäre so glücklich das dies jetzt geklappt haben, denn eine Saison mehr in der zweiten Liga hätte der Verein finanziell nicht überstanden, dabei blieben ihm die Fans treu. Es gab einen Rekordbesuch in der zweiten Liga, aber es gibt eben weniger Geld aus den Übertragungsrechten. Das ist nur ein Beispiel wie die meisten Vereine nicht wirtschaften, sondern von einem steten Geldregen leben und die Fans eigentlich nur ein notwendiges Übel sind.

14.5.2020: Modellierung von Parallelstufen mit "Rakete"

Ich möchte heute mal zeigen, wie man mit meinem Programm die verschiedenen Arten von Parallelstufen modellieren kann. Ihr findet es hier. Die Version ist nicht ganz aktuell, aber da ich gerade in Nesselwang bin, nachdem man endlich wieder in Bayern einreisen kann, muss ich auch auf diese Version zurückgreifen.

Das zentrale Instrument für eine echte Simulation findet ihr im Hauptmenü unter Nutzlastberechnung → Aufstiegsbahnen. Es öffnet sich nun ein Fenster mit etlichen Eingabefeldern. Die Grundlagen habe ich schon mal im Blog erklärt. Nun geht es um Parallelstufen, also Stufen die zum selben Zeitpunkt arbeiten. Bei Serienstufen ist es relativ einfach - man trägt als Zündungszeitpunkt "T-0" einfach eine Zeit ein die länger als die Brenndauer der vorherigen Stufen ist.

Klassische Parallelstufen

Die klassische Parallelstufe sind Booster. Die einzige Änderung zur Serienstufe ist, dass man bei T-0 den richtigen Zündungszeitpunkt einträgt meistens 0 s und die zweite Stufe (Zentralstufe) dann auch bei 0 s zündet. Beide Stufen arbeiten dann parallel. Werden Booster später gezündet so kann man auch einen anderen Zeitpunkt eintragen. Hier mal die Daten einer Delta 3914 (entnommen der Datei Delta.rak):


Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez.Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

5

10.480

1.097

2.560

377,2

404,5

59,38

0,00

2

4

10.480

1.097

2.560

377,2

404,5

59,38

69,00

3

1

85.076

4.812

2.923

911,8

1045,0

224,51

0,00

4

1

6.180

820

2.951

43,9

42,9

368,70

226,00

5

1

1.158

119

2.766

66,7

66,7

43,09

600,00

Man sieht: erste Stufe (fünf Booster) und Zentralstufe (in der Tabelle die dritte Stufe) zünden bei 0 s. Vier Booster nach 69 s, da sind die ersten fünf schon ausgebrannt. Im Beschleunigungsdiagramm sieht man das an der kurzzeitig absinkenden Beschleunigung.

Cross-Feeding

der nächst komplexere Punkt ist das Crossfeeding. Beim Cross Feeding ist es so, das alle Stufen gleichzeitig zünden, aber der Treibstoff der zentralen Stufe nicht verbraucht wird. Das heißt an den meisten Daten der Stufen ändert sich gar nichts. Man kann Booster und Zentralstufe als seperate Stufen modellieren. Die einzige Änderung: Der Schub der ersten Stufe besteht aus dem Schub der booster und Zentralstufe, die Brenndauer verringert sich so. (Man kann ihn mit dem Menüpunkt "Brenndauer aus Schub berechnen" auch berechnen lassen. Die Zentralstufe zündet dann nach Ausbrennen der ersten Stufe.

Nehmen wir die Delta Heavy und modellieren sie als Cross-Feeding Variante. Sie hat einen Schub von 2891 / 3312 kN (Boden/Vakuum). Mit der Zentralstufe sind es 50 % mehr (4336,5 / 4958 kN). Die Brenndauer simnkt von 29 auf 153 s. Die zentrale Stufe bekommt nun diese Brenndauer als T-0 eingetragen - das wars schon. Bei der originalen Delta 4H in der Datei arbeitet die Zentralstufe mit reduziertem Schub. Hier sollten wir nun den nominalen Schub eintragen.


Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez.Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

2

226.400

26.760

3.800

4336,5

4968,0

152,70

0,00

2

1

226.400

26.760

3.800

2891,0

3312,0

229,06

153,00

3

1

30.480

3.640

4.516

110,0

110,0

1101,90

340,00

Abwerfbare Triebwerke

Deutlich schwerer ist es Triebwerke abzuwerfen. Dies war bei der alten Atlas (bis zur Atlas 2). Damit man dies einigermaßen akkurat modellieren kann, bietet es sich an die Rakete als zwei Stufen zu modellieren. Bei der Atlas wäre das so:

Stufe 1: Die Boostertriebwrke stellen die Leermasse, Boostertriebwerke + während des Betriebs verbrauchter Treibstoff = Vollmasse. Nicht vergessen sollte man auch die Fläche anzupassen, der Triebwerksblock ist schließlich recht klein. Ich denke, ich werde in der nächsten Version noch einen Menüpunkt einbringen, indem man die Treibstoffmasse aus Schub, spezifischem Impuls und Zeit berechnen kann. Entsprechend reduziert man bei der weiter arbeitenden Stufe die Voll- und Leermasse. Bei der Atlas D Mercury sieht dies dann so aus:


Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez.Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

1

76.040

3.050

2.765

1375,0

1517,4

133,00

0,00

2

1

38.857

2.347

3.030

272,0

363,9

304,00

0,00

Abwerfbare Tanks

Tanks sind etwas problematisch, denn sie haben ja keinen Schub. Die beste Möglichkeit, die ich fand war die das man sie, als eigene Stufe modelliert. Der Schub entspricht dem der Zentralstufe, nur die Leermasse ist eben die des Tanks. Die Zentralstufe muss man dann als zweite Stufe mit gleichem Schub modellieren. Der Erbauungszeitpunkt der Zentralstufe schließt dann an den Abwurfzeitpunkt der Tanks an.

Noch ein Wort zu den Verlusten

In der Maske findet man rechts unten noch ein Label, das die Aufstiegsverluste wiedergibt. Dies sind aber nicht die aufaddierten Verluste. Stattdessen ist es ein Parameter der aus meiner älteren, einfachen Simulation stammt. Sie basiert auf der Ziolkowski-Gleichung und behandelt alle Stufen als Serienraketen. Auch das ist noch etwas was ich noch in der nächsten Version verbessern muss.





Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99