Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 544: 9.1.2019 - 28.1.2019

9.1.2019: Der Wiedereintritt

Die Kommentare zu dem angeblich neuen Konzept der BFR , mit aktiver Kühlung brachten mich auf meinen heutigen Grundlagenartikel. Und nein ich gehe nicht auf das Konzept von Musk ein. Zum einen, weil ich in 15 Jahren nicht eine Aussage, von ihm kenne, die nicht gelogen war oder revidiert wurde und zum anderen, weil ich Twittermeldungen nicht als Informationsquelle ansehe.

Es geht um den Wiedereintritt per se. Der Vorgang ist eigentlich relativ einfach. Ein Körper tritt mit einer bestimmten Geschwindigkeit in die Atmosphäre ein und diese Geschwindigkeit entspricht einer Energie, die zum Teil abgebaut wird.

Die Geschwindigkeit liegt bei einem Satelliten zwischen 7,8 und maximal 11 km/s. Sie entspricht in etwa der Geschwindigkeit im Perigäum der Bahn. Bei Fluchtbahnen. Also entweder Körper aus dem Sonnensystem oder Rückkehr von menschlichen Objekten, die zum Mond oder weiter entfernt kommen, sind es über 11 km/s.

Man kann nun leicht nach der Formel:

E=1/2 mv²

Die kinetische Energie berechnen, die dieser Geschwindigkeit entspricht. Schon die geringste Energie eines Erdsatelliten von 7,8 km/s Orbitalgeschwindigkeit entspricht einer kinetischen Energie von 30,42 MJ. Damit man das Mal einordnen kann: 30,42 MJ sind 8,45 KWh. Verbrennt man Wasserstoff und Sauerstoff, eine der energiereichsten Kombinationen, die es gibt, so liefert 1 kg nur 14,9 MJ. Daraus kann man erkennen, dass diese Energie leicht ausreicht, jedes Material, das es gibt zu verdampfen.

Das passiert auch – zumindest wenn der Körper ganz klein ist. Es fallen ja auf die Erde nicht nur große Brocken, sondern auch viel Staub und der verdampft weitestgehend. Trotzdem gab es in den Neunzigern eine Überraschung, als eine U-2 in der oberen Stratosphäre Staub sammelte und nach den Analysen darunter auch extraterrestrischer Staub war. Also Teilchen, von denen man annahm, dass sie eigentlich komplett verdampfen müssten, weil sie so klein sind.

Auf der anderen Seite – das wird euch ein Sammler von Meteoriten bestätigen – schaffen selbst kleine Gesteinsbrocken von nur wenigen Zentimetern die Passage und kommen am Boden an. Großen Brocken, sagen wir so mal ab 10 m Durchmesser werden sogar kaum abgebremst und schlagen durch ihre kinetische Energie einen Krater. Kleine Faustformel am Rande – der Kraterdurchmesser ist je nach Geschwindigkeit und Dichte (es gibt auch Meteoriten die vorwiegend aus Eisen bestehen) etwa 10 bis 20-mal größer als der Durchmesser des Körpers, der ihn schlug.

Ist der Körper wirklich groß – so ab 100 m, so wird er durch die Atmosphäre kaum abgebremst und schlägt mit voller Wucht auf. Für den Körper, der die Dinosaurier auslöschte, war nicht mal die 4 km dicke Wasserschicht im Golf von Mexiko ein Hindernis. Er verdampfte trotzdem noch das darunter liegende Gestein.

Das zeigt aber auch – nicht die volle Energie wird beim Wiedereintritt in Erwärmung umgewandelt und das schon nicht mal bei kleinen Körpern von nur wenigen Zentimetern Größe.

Bein einem aerodynamisch geformten Körper, wie es ein vom Menschen für den Wiedereintritt konstruiertes Objekt sein sollte, gehen etwa 1-2 Prozent der Gesamtenergie auf den Körper über. Der Rest, wenn wir ganze große und dichte Körper ausklammern, die kaum abgebremst wird, auf die Erhitzung der Atmosphäre um den Körper, in großen Höhen wird es so heiß das ein Plasma entsteht. Das sind dann die in Presserklärung ausgelobten enorm hohen Temperaturen, bei denen selbst Werkstoffe mit hoher Temperaturbeständigkeit verdampfen würden. Nur hat die Temperatur das Plasma und nicht der Körper.

Das vereinfacht die Auslegung. Man hat bisher drei grundlegende Technologien entwickelt, um einen Körper heil zur Erde zurückzubringen.

Die älteste ist die Technologie der Wärmesenke. Sie ist so alt, das sie im Buch über Raumfahrttechnik von Harry O. Ruppe, das ich für diesen Blog konsultiert habe, schon nur „aus historischen Gründen“ angeführt wird, denn sie war schon Anfang der Achtziger Jahre längst veraltet. Als man das Mercuryprogramm begann, sollte der Hitzeschutzschild aber nach diesem Prinzip operieren und die suborbitalen Flüge setzten denn auch dieses Prinzip ein.

Das Prinzip der Wärmesenke beruht darauf, dass der Hitzeschutzschild aus einem Material besteht, das eine hohe Wärmeleitfähigkeit besitzt und gleichzeitig eine hohe Wärmekapazität hat. Das war Berrylium. Beryllium hat eine spezifische Wärmekapazität von 1.825 kJ/kgK, Stahl dagegen nur eine von 460 und Aluminium eine von 920 kJ/kg*k. Noch dazu hat es für ein Leichtmetall hohen Schmelzpunkt von 1287 °C. Berylliumkann rund 1 KWh Energie pro Kilogramm Masse aufnehmen. Wenn im Durchschnitt 1,5 % der Energie auf den Körper übergehen, benötigt man bei 8,45 KWh pro kg für den Wiedereintritt für einen niedrigen Erdrorbit also einen Hitzeschutzschild von 12,7 % der Gesamtmasse. Beryllium speichert die Wärme und erhitzt sich. Der Hitzeschutzschild muss dann natürlich noch vom Rest des Körpers isoliert sein, sonst geht die Wärme auf den Rest über. Am Boden muss man den Schutzschild wieder abkühlen. Kein Problem, wenn man im Wasser wassert. Wasser leitet gut Wärme ab. Bei einer Landlandung sieht es anders aus. Dann benötigt man entweder schnell eine extrem gute Kühlung oder man muss den Hitzeschutzschild abwerfen, das taten z.B. alle Mercurykapseln, sobald die Fallschirme geöffnet wurden. Das Prinzip der Wärmesenke wurde nur bei sehr kleinen Kapseln wie den Filmkapseln der Spionagesatelliten und für Atomsprengköpfe eingesetzt. Bei so dichten Körpern ist der Übergang der Energie auf den Körper kleiner als bei einer Kapsel mit einem großen Hohlraum für die Besatzung.

Das nächste Prinzip, das umgesetzt wurde, war das des ablativen Hitzeschutzschildes. Und wer hat‘s erfunden? Man glaubt es kaum. Auch das wurde von Wernher von Braun und seiner Gruppe zur Einsatzreife gebracht in dem Konus der Jupiter. Ich war erstaunt, doch da Harry Ruppe damals in der Gruppe drin war, zweifele ich nicht daran. Damit ist auch erklärbar warum Maxime Faget, der das Mercuryraumschiff konstruierte, nach den ersten Besprechungen die auch mit Wernher von Braun waren auf den ablativen Schild umschwenkte.

Das Prinzip des ablativen Schildes ist, dass der Hitzeschutzschild aus einem Material besteht, das eine geringe Wärmeleitfähigkeit besitzt. Es erhitzt sich so stark, bis es schließlich verdampft. Dabei nimmt es viel mehr Wärme mit als Beryllium, das sich maximal so weit erhitzen darf, bis es erweicht, noch weit unterhalb des Schmelzpunktes. Das ideale Material wäre reiner Kohlenstoff. Er hat von allen Elementen den höchsten Sublimationspunkt und schmilzt nicht vorher, denn dann könnte er von der Strömung weggetragen werden. Nur ist reiner Kohlenstoff solange man nicht große Strukturen aus Diamant fertigen kann nicht sehr fest und empfindlich gegen mechanische Beschädigung. Trotzdem kommt er zum Einsatz. An den Stellen des Raumschiffs mit den höchsten Temperaturen nimmt man reinen Kohlenstoff, der aber nach einem aufwendigen Verfahren hergestellt wird. Das Material „Reinforced Carbon-Carbon“ kurz RCC kam an den Flügelvorderkanten des Space Shuttles zum Einsatz. Dazu wurde reiner Kohlenstoff in ein Harz eingegossen und das ausgehärtete Harz im Vakuum pyrolysiert, also verbrannt, bis auch das Harz zu Kohlenstoff wurde. Erhalten wurde reiner Kohlenstoff, aber noch porös. Um auch die Poren zu verschließen, wurde er dann mehrmals mit einem Alkohol (Furanol) getränkt und jedes Mal erneut pyrolysiert, wobei dann der Alkohol auch in Kohlenstoff umgewandelt wurde. Bis man einen Block aus reinem Kohlenstoff erhielt, der natürlich schon durch die Gießform für das Harz die spätere nötige Form hatte. Trotzdem ist auch RCC genauso mechanisch anfällig wie andere Kohlenstoffformen in SP-2 Konfiguration wie z.B. Steinkohle. Das zeigte sich, als ein Stück Schaumstoff mit hoher Geschwindigkeit auf ein RCC-Panel beim Start von STS-107 prallte und ein Loch riss.

Die ablativen Schilde für weniger hohe Ansprüche bestehen aus einem anderen Material. Die Basis ist ein Block aus Aluminium in Wabenform, mit dem zum einen der Schild an dem Raumschiff angebracht wird, ohne diesen selbst z.B. durch Bohren zu beschädigen. Zum anderen ist die Wabenform ein Stützgerüst. In jede Wabe kommt eine Mischung aus einem Acrylharz und festen Komponenten die einen hohen Schmelzpunkt haben oder sublimieren. Das waren bei Mercury Glasfasern, der Hitzeschutzschild ist also vergleichbar einem glasfaserverstärkten Kunststoff gewesen. Bei niedrigen Anforderungen an die abzuführende Energie wie z. B. bei einer Landung auf dem Mars (niedrigere Geschwindigkeit) kann man auch Kork nehmen. Heute üblich sind Silikatfasern oder Kohlenstofffasern als Verstärkung. Sie bilden eine dreidimensionale Matrix im Hitzeschutzschild. Der ausgehärtete Schild kann dann leicht durch Abschleifen in die gewünschte Form gebracht werden. Beim Wiedereintritt verdampft ein Teil der Oberfläche. Das Harz verkohlt und bildet so an der Oberfläche eine Schicht aus reinem Kohlenstoff. Die Fasern sind nicht nur ein weiterer schwer verdampfender Bestandteil, sie geben dem Schild auch mehr Steifigkeit und Widerstandskraft gegen mechanische Beschädigungen.

Nach Ruppe braucht man für den Wiedereintritt von einem LEO einen ablativen Schild der etwa 10 % des Gefährtes wiegt – das ist schon mal günstiger als bei der Wärmesenke (12,7 %). Beim Mond sind es 15 Prozent – man sieht der Zusammenhang ist nicht linear, denn die Energie ist doppelt so hoch nicht nur 50 % höher. Das funktioniert selbst noch bei Jupiter, wo die Galileo-Atmosphärensonde mit 47 km/s Eintrittsgeschwindigkeit – der Schild machte dann aber fast die Hälfte der Masse aus. Wäre der Zusammenhang linear, so würde Schild mehr wiegen als der Körper selbst. Allerdings gilt Ruppes Angabe wohl für eine bemannte Kapsel und nicht eine relativ kleine Messkapsel mit hoher Dichte.

Für das Space Shuttle setzte man das dritte Prinzip ein. Das der Strahlungskühlung. Nämlich möglichst wenig Wärme aufzunehmen. Die Hitzeschutzkacheln des Space Shuttles bestehen aus einer dreidimensionalen Matrix aus reinen Silikatfasern. Zwischen ihnen herrscht ein Vakuum, weshalb diese eine extrem niedrige Dichte haben (eine zweite Anwendung des Werkstoffs war das Aerogel für das auffangen von Staubteilchen aus Kometen bei der Raumsonde Stardust). Silikatfasern haben einen hohen Schmelzpunkt und weil zwischen den Fasern ein Vakuum herrscht, leiten sie die Wärme kaum weiter. Nur an den Berührungspunkten ist das möglich. Sie strahlen dadurch einen großen Teil der Energie durch die große Oberfläche der Fasern wieder ab, beim Space Shuttle hat man das noch verstärkt indem man den unteren Schild (die Kacheln kamen auch auf der Oberseite zum Einsatz) mit einem dunklen Überzug aus Borsilikatglas mit Kohlenstoff überzog. Die schwarze Oberfläche strahlt nochmals mehr Energie ab. Die Kacheln sind eindrucksvoll. Es gibt Videos der NASA von der Herstellung, da kann man sie wenige Sekunden nach Herausnehmen aus dem Ofen mit bloßen Händen anfassen – die oberste Schicht strahlt schnell die Wärme ab, nimmt aber die innere Wärme durch die schlechte Wärmeleitung kaum auf – der Arbeiter hält dann einen rot glühenden Würfel mit bloßen Händen! (Ich rate Elon Musk das mal mit seinem Kühlsystem zu probieren, dann schreibt er wenigstens nichts mehr, bis die Verbrennungen dritten Grades geheilt sind).

Der Nachteil: Diese Technologie ist nur einsetzbar, wenn ich die Zeit habe die Energie wieder abzugeben. Das Gefährt muss also einen hohen Auftrieb besitzen für einen langen Flugweg, eben daher wurde die Strahlungskühlung auch beim Space Shuttle eingesetzt, das möglichst lange in der oberen dünnen Atmosphäre bleibt, auch weil die maximale Energie welche der Kacheln ausgesetzt werden können bei 10-20 KW/m² liegen. Beim schnellen, ballistischen Passieren der Atmosphäre können dagegen bis zu 1.000 kW/m³ auftreten. Auch die vorher erwähnten Paneele auf Basis von RCC beruhen auf der Strahlungskühlung. Sie werden bis zu 1610°C heiß.

Durch die niedrige Dichte sind diese Quarzkacheln bis heute die optimale Lösung was das Gewicht angehet. Beim Space Shuttle wiegen sie auf der Unterseite 4.500 kg bei 475 m² Fläche. Also nur etwa 10 kg pro Quadratmeter. Der Nachteil – auch diese Kachdeln dehnen sich aus. Es mussten daher Tausende sein. Zwischen jeder Kachel musste es eine genau berechnete Fuge zum Ausdehnen geben. Später konnte man die Zahl reduzieren und größere Kacheln fertigen, aber ein monolithischer Schild wie bei den ersten beiden Methoden ist auch heute nicht herstellbar und daher ist die Strahlungskühlung sowohl die Herstellung wie Wartung teuer. Auch wenn die Kacheln die meiste Energie vom Raumfahrzeug abhalten, nehmen sie doch einiges auf. Die Wärme würde auf Dauer auf die Struktur übergehen. So ist das Erste, was nach der Landung gemacht wird, noch bevor die Besatzung aussteigt, dass ein Fahrzeug zum Shuttle fuhr und ihn kühlte.

Nach wie vor gibt es nur diese drei Optionen. Ablative Schilde sind der Standard, aber man muss sie bei jedem Start auswechseln. Kacheln sind erheblich leichter und für Raumschiffe mit großem Volumen und / oder Flügeln daher geeigneter, aber viel teurer in der Herstellung und Wartung. Das Wärmesenkenprinzip ist heute eigentlich tot. Klar der Schutzschild ist wiederverwendbar. Aber er ist extrem teuer, Beryllium ist zudem giftig und schwer zu verarbeiten und er ist auch noch schwer.

Wie leistungsfähig das Kühlsystem sein muss, das innerhalb kurzer Zeit (der Wiedereintritt dauert so etwa 20 bis 30 Minuten) bei einem (geschätzt) 100 t Gefährt rund 0,1 KWh Energieübergang pro Kilogramm Masse, also 10 MWh an Energie abführt, überlasse ich dann den SpaceX Experten.

15.1.2019: Die Crux mit den Konstellationen

Ich möchte heute mal meine Einwände zu den geplanten Satellitenkonstellationen auf technischer Seite formulieren. Es gäbe natürlich noch andere Sichtweisen, wie die organisatorische (wie lange brauche ich um die Konstellation aufzubauen, welchen Aufwand muss ich auch im Bodensegment treiben) und natürlich wirtschaftliche. Doch ich fange mal mit der Konkurrenz an, den etablierten geostationären Satelliten.

Die Evolution von geostationären Satelliten

Alles begann mit dem Early Bird, noch von der NASA finanziert. Er wurde später an Intelsat übertragen, die ihn nachbauen lies. Die Fähigkeiten wuchsen dann an, es wurden immer mehr Telefongespräche oder Fernsehkanäle gleichzeitig möglich und die kosten für die Nutzer sanken. Die INTELSAT IV Generation hatte dann schon Antennen, die nicht mehr die ganze Erde abdeckten, sondern einzelne Kontinente. Das erhöhte die Empfangsstärke.

Symphonie 1+2, die beiden deutsch-französischen Satelliten läuteten dann ein neues Zeitalter ein. Nicht nur als erste Konkurrenz zum internationalen (aber von den USA dominierten) Konsortium Intelsat, sondern auch der Beginn der Regionalsatelliten. Sie sollten nicht mehr Kontinente verbinden, stattdessen Services in Europa bereitstellen, später wurde einer nach Indien verschoben. Dazu gehörten zahlreiche Innovationen, die heute jeder geostationäre Satellit hat wie ein ausfahrbarer Solargenerator, Apogäumanstrieb mit flüssigem Treibstoff, Dreiachsenstabilisierung. Vor allem aber Parabolantennen die viel besser die Signal bündeln. Damit konnte man das Empfangsgebiet stärker eingrenzen. Das hat mehrere Vorteile. Zum einen verteilt sich das Signal auf eine kleinere Fläche. Man braucht also eine viel kleinere Empfangsantenne für dieselbe Signalstärke über dem Hintergrundrauschen. Zum zweiten kommen sich so mehrere Satelliten nicht ins Gehege, wenn sie verschiedene Gebiete abdecken. Vor allem aber kann man so eine Frequenz mehrfach nutzen, wenn der Empfangsbereich jeweils ein anderer ist.

Geostationäre Satelliten haben zwei zugewiesene Frequenzbänder, die sie nützen dürfen. Zwischen 4 und 6 GHz im C-Band und zwischen 12 und 14 GHz im K-Band. Rechnet man mit einer Codierung von 1 Bit/Hz Frequenz, sind das bei insgesamt 4 GHz Bandbreite maximal 4 GBit/s. Wahrscheinlich durch effiziente Codierung etwas besser, andererseits muss man auch Lücken zwischen jedem Transponder lassen, um Störungen zu vermeiden. Ein Transponder mit einer Bandbreite von 30 MHz kann man heute für etwa 1 Million Dollar pro Jahr mieten.

In den Achtzigern startete mit Astra dann die Ära der Direktfernsehsatelliten. Mit noch größeren Parabolantennen deckten diese Satelliten nun nicht mehr Europa sondern nur noch einen Teil Europas ab, dazu kamen stärkere Sender. Als Folge schrumpfte die Größe einer Empfangsantenne von 3 m, und damit Anschaffungskosten von rund 20.000 DM auf 90 cm und Anschaffungskosten von 1.000 DM, heute sind sogar bei noch kleineren Beams noch kleinere Antennen ausreichend. Heute kann ein Satellit mit einer 3 m großen Sende-/Empfangsantenne einen Winkel von 0,5 Grad im K-Band eingrenzen, das sind beim Äquator nur noch ein Gebiet von 180 km Durchmesser, zu den Polen hin nimmt der Durchmesser zu.

Mit dem Internet begann auch die Nutzung von Satelliten als Relay. Dabei erfolgte anfangs der Downstream über den Satellit, der Upstream aber meist über das terrestrische Netz, also die Telefonleitung. Das hatte mehrere Gründe. Zum einen sparte man sich so einen Teil der Zeitverzögerung ein – im minimalen Fall geht das Signal einmal in 36.000 km Distanz und wieder zurück, was rund 0,4 s dauert. Bei einer Anfrage und Antwort fällt diese Verzögerung zweimal an, einmal beim Senden der Anforderung und einmal beim Empfang der Antwort. Daneben war es anfangs so, dass die Daten im Upstream relativ gering waren – Emails, HTTP-Anfragen. Heute gibt es natürlich immer noch Internet über Satellit, aber symmetrisch, also auch der Upstream über Satellit. Heute wird viel mehr im Upstream übertragen. In die Cloud oder auf Instagramm Fotos. Dank größerer Empfangsantennen ist das kein Problem.

Der größte Vorteil eines geostationären Satelliten ist, dass er ein Gebiet dauerhaft, 24 Stunden am Tag versorgen kann. Mit mehreren Antennen kann man das relativ genau eingrenzen.

Der Nachteil ist, dass er erst mal in den geostationären Orbit kommen muss. Vergleichen mit dem LEO-Orbit sinkt schon die Nutzlast in den Transferorbit auf einen Bruchteil ab. Dann braucht der Satellit noch weiteren Treibstoff, um den Geo Orbit zu erreichen und auch dort ist kein Ende. Die Position ist nicht stabil, das ungleichmäßige Gravitationsfeld führt dazu, dass man laufend nachkorrigieren muss. Bei 12 bis 15 Jahren Betriebsdauer, wie sie heute Standard sind, besteht der Satellit zu 2/3 aus Treibstoff und Antriebssystem. Trotzdem braucht er große Antennen, wenn die Empfänger (für Endnutzer) klein sein sollen. Die wiegen viel. Die größte Einschränkung für die Nutzung als Internetterminal ist aber die große Distanz und damit die Signalverzögerung, Bei der Übermittlung von Fernsehsignalen ist das weitaus weniger störend und zudem benötigt man dort keinen Rückkanal und kann beliebig viele Benutzer mit den gleichen Daten versorgen, während sich sonst die Nutzer die Bandbreite teilen müssen. Daher ist das noch immer die vorherrschende Nutzung geostationärer Satelliten.

Mittlere Orbits

Daher gibt es schon einige Konstellationen im mittleren Orbit – immerhin noch 6.000 bis 8.000 km hoch. Dann kommt man nicht mit einem Satelliten aus. O3B besteht aus 16 Satelliten von nur 700 kg Masse in 8.000 km Höhe. Das ist mehr als viermal näher – mit kleinerer Signalverzögerung. Trotzdem deckt jeder Satellit in dieser Höhe noch ein großes Gebiet ab. O3B hat als Kunden zum einen Airlines und die Schifffahrt und zum anderen Ländern rund um den Äquator, denn die Satelliten umkreisen die Erde wie die geostationären Satelliten äquatorial. In dieser Höhe würde eigentlich wie im geostationären Orbit ein Satellit alle 180 Breitengrade ausreichen, um eine kontinuierliche Abdeckung zu gewährleisten. Es sind mehr, um mehr Bandbreite zur Verfügung zu stellen und weil der Empfang besser ist wenn sich der Satellit nahezu senkrecht über der Empfangsstation befindet. O3B nutzt die Nähe, um in das höherfrequente Ka-Band zwischen 26,5 und 40 GHz zu wechseln. Je höher ein Frequenzband ist, desto kleinere Antennen braucht man für ein gegebenen Abstrahlwinkel oder eine Vorgabe an Signalabstand über dem Hintergrundrauschen. Als Nebeneffekt gibt es mehr Bandbreite in höheren Bändern. Allerdings ist auch die Signalabschwächung durch die Atmosphäre, vor allem Wasserdampf höher. Das obere Ka-Band nutzen auch alle LEO-Konstellationen.

Hinsichtlich der Eigenschaften sind so mittlere Orbits ein Zwitter zwischen den Anforderungen. In 8.000 km Höhe ist die Verzögerung schon viermal kleiner – hin und zurück unter 200 ms. Andererseits bewegt sich der Satellit so langsam über den Horizont, dass man ihn viel leichter mit einer mechanisch drehbaren Antenne verfolgen kann als im geostationären Orbit. Eine Passage von Horizont zu Horizont dauert knapp 6 Stunden.

Leo Konstallationen

Machen wir einen Sprung zu den LEO-Konstellationen. Oneweb wird ihre Satelliten in 1100 bis 1200 km Höhe platzieren. Es gibt ja schon solche Satellitenflotten in ähnlichen Orbits. Iridium in 780 km Höhe mit 77 Satelliten, davon 66 aktiv, Globalstar in 1414 km Höhe mit 24 Satelliten. Man sieht – je höher der Orbit, desto weniger Satelliten braucht man. Technisch muss für eine dauerhafte Verbindung ein Satellit über dem Horizont aufgehen, wenn der Letzte gerade hinter dem Horizont verschwindet. In der Praxis eher etwas früher, weil nahe des Horizonts zum einen Hindernisse sein können (Berge, Nachbarhäuser) und zum anderen am Horizont wegen Reflexionen und der dichteren Atmosphärenschicht der Empfang schlecht ist. Bei Iridium kann man erst oberhalb 8.2 Grad über dem Horizont einen Empfang gewährleisten, dieser Winkel steigt zum Pol hin auf 20 Gad an. In 1200 km Höhe entspricht Anteil der Erdoberfläche, in dem ein Satellit sichtbar ist, einem Winkel von fast 66 Grad. Sechs Satelliten pro Bahn würden also ausreichen für eine Abdeckung einer Bahnebene. Eine Bahnebene ist aber noch keine komplette globale Abdeckung. Die Erde rotiert einmal in 24 Stunden. Jeder Satellit passiert einen Punkt zweimal am Tag, einmal, wenn er auf der Sonnenseite ist und einmal auf der Nachtseite. Bei 66 Grad Breite des Empfangsgebietes (gemessen als Winkel, entsprechend ~ 7300 km auf der Erdoberfläche braucht man dann mindestens drei Bahnebenen. Zusammen ohne Reservesatelliten also 18 Satelliten. Die Größenordnung ist die gleiche wie bei Globalstar in etwas höherer Bahn.. Wobei die Angaben immer von Horizont zu Horizont sind, wie schon geschrieben ist es sinnvoll, wenn sich die Empfangsgebiete überlappen, wodurch man mehr Satelliten braucht.

Doch 700 Satelliten sind nicht einige Reservesatelliten mehr, sondern etliche mehr. Warum so viele?

Es gibt eine Reihe von Gründen. Wie schon geschrieben ist der Empfang am besten, wenn der Satellit nahe des Zenits ist. Dann ist auch das elektronische Schwenken der Antenne einfacher. Sendeantennen werden Phased array Antennen sein, die nicht mechanisch dem Satelliten nachgeführt werden, sondern elektronisch geschwenkt werden. Bei Radarantennen, die nach diesem Prinzip funktionieren, kann man den Winkel um maximal 60 Grad ändern, wirtschaftlich sind Winkel kleiner 30 Grad. 30 Grad sind aber nur ein Sechstel der Hemisphäre von 180 Grad. Also benötige ich pro Bahnebene die sechsfache Satellitenzahl und da dies auch für die Breite also Abweichung in Ost-Westrichtung gilt (bei einer Passage nicht direkt über dem Empfangspunkt, sondern etwas westlich oder östlich) auch entsprechend mehr Bahnebenen, dann komme ich leicht auf 18 x 6² = 648 Satelliten, was ziemlich exakt die Satellitenanzahl von Oneweb ist. Als Vorteil muss ein Satellit aber dann auch nur ein Gebiet von 30 Grad Breite abdecken, so kann der Sender viel leistungsschwächer sein, und da dies immer um die Zenitposition herum ist, ist auch die Abschwächung durch Wetterphänomene nicht so stark.

Das zweite ist, das jeder der nun kleinen Satelliten nur eine begrenzte Kapazität hat. Denn natürlich wird ein 200 kg schwerer Satellit nicht die Kapazität eines 1,5 t schweren geostationären Satelliten haben.

Daneben müssen die Daten auch an eine Bodenstation gesendet werden, dort müssen sie ja ins normale Internet eingespeist werden. Es gäbe zwei Lösungen für das Problem. Zum einen reichen, wenn man die Bodenstationen mit großen, beweglichen Antennen ausstattet, 18 Stück, wenn sie an den richtigen Stellen sind. Dann würden die Daten von einem Satelliten zum nächsten übertragen werden, bis sie bei dem ankommen, der am nächsten zur Bodenstation ist, der dann natürlich einen leistungsfähigen Downlink hat, denn er muss die Daten von bis zu 36 Satelliten übermitteln. Dann muss eine Bodenstation aber nur einen Satelliten tracken. Alternativ baut man mehrere Antennen um mehrere Satelliten zu tracken, man wird nicht jeden Satelliten verfolgen können, und das dauernde Schwenken bei so vielen Satelliten auf den jeweils nächsten Satelliten ist auch nicht praktikabel. Der Satellit benötigt dadurch aber trotz seiner kleinen Masse dann eine zweite Kommunikationsausrüstung mit hoher Kapazität zur Bodenstation zusätzlich zu den Endnutzern.

SpaceX will zwei Ebenen etablieren. Eine erdnahe in rund 400 km Höhe – nah am Kunden, reduziert die Kosten für Hardware beim Kunden und erhöht die Datenrate bei gleicher Sendeleistung, dafür aber vielen Satelliten und einer zweiten Ebene in der Höhe von OneWeb, die wohl vor allem für die Übertragung der Daten zur Bodenstation zuständig ist. Dort wird auch ein für den Satelliten-Satelliten-Kommunikationsweg ein sehr hochfrequentes Band eingesetzt, das auf der Strecke Erde-Satellit wohl ziu stark gedämpft würde.

Die Wirtschaftliche Crux

Der Riesenunterschied zwischen einem geostationären Satelliten und der Flotte ist der, das ein geostationärer Satellit einen Transponder verkauft, der eine bestimmte Region mit einer bestimmten Datenrate dauerhaft versorgt. Sobald man die meisten Transponder verkauft hat, ist der Satellit wirtschaftlich. Sie werden ja auch nach Bedarf gebaut und gestartet. Dabei orientiert man sich nach der Nachfrage. Ein Satellit, der bei etwa 10 Grad Ost steht, kann z.B. Deutschland versorgen, aber auch Norwegen oder Libyen oder die Antarktis. Es wird aber sicher mehr Kunden in Deutschland geben als in der Antarktis. 70 % der Erdoberfläche sind Wasser oder Eis. Da gibt es natürlich auch dicht besiedelte Regionen an der Küste oder auf Inseln wie Japan. Doch der Großteil der Ozeanfläche ist kaum besiedelt. Ein geostationärer Satellit kann sich die Regionen aussuchen, die gut besiedelt sind und wo es genügend zahlende Kunden gibt. Eine Flotte bietet zwar anders als ein geostationärer Satellit eine weltweite Abdeckung an, aber der springende Punkt. Die Kunden in dicht besiedelten Gebieten zahlen im Prinzip für eine Satellitenabdeckung der ganzen Erdoberfläche mit. Mehr noch: Je mehr Kunden es in einem Gebiet wird, desto kleiner wird die verfügbare Bandbreite pro Kunde. Auf der anderen Seite gibt es die meisten potenziellen Kunden zwar in heute noch nicht gut erschlossenen Gebieten, für die es auch keine Satellitenabdeckung mangels Nachfrage gibt, aber diese haben selten die Kaufkraft für diese Technologie. Bevor jemand mit den Funklöchern in Deutschland kommt: über geostationäre Satelliten kann man schon seit 15 Jahren Internet haben, zu konkurrenzfähigen Preisen, dafür braucht man keine Flotte, was mein Hauptargument bestätigt.

Telesat, ein weiteres Start-up setzt daher wie Globalstar auf eine andere Strategie. Globalstar unterscheidet sich von Iridium nicht nur in der Bahnhöhe und Satellitenzahl. Die Bahnen sind auch nur 52,4 Grad zum Äquator geneigt. Warum die polnahen Regionen abdecken, wenn dort keiner wohnt? Telesat hat 60 Satelliten in polaren Bahnen und weitere 50 in 37,4 Grad geneigten Bahnen. Diese decken den Bereich bis in mittlere Breiten, ab. Dort sind viele der bevölkerungsreichen Länder Südamerikas und Asiens. Man konzentriert sich also auf den Bereich, der auch wirtschaftlich sinnvoller ist. Der Vorteil: Die Empfangszonen überlappen sich stärker je kleiner die Bahnneigung ist, die Abdeckung ist besser.

Daneben brauche ich auch zunehmend mehr Bodenstationen zum Empfang mit mehr Satelliten. Die noch dazu wenn man nicht extrem lange und Bandbreite verschlingende Satelliten-Satellitenübertragungen haben will, gleichmäßig über den Globus verteilt sein müssen. Das Letztere ist sowieso ein Idealzustand, vor allem im Pazifik gibt es große Gebiete ohne das weit und breit auch nur eine kleine Insel ist.

Ich sehe das wie bei Iridium als ein Vabanque-Spiel. Man muss erst ein Netz aufbauen, um zu sehen, ob es wirtschaftlich ist. Vorher kann man nur über potenzielle Nutzerzahlen spekulieren. Bei Iridium waren es schließlich nur ein Bruchteil der potenziellen Nutzer was die Firma an den Rande des Bankrotts brachte. Und genau die Gefahr sehe ich auch bei OneWeb und Starlink. Je größer die Investitionskosten sind, desto höher die Chance des Scheiterns. OneWeb sollte dieses Jahr mit den ersten Starts beginnen. In einigen Jahren wissen wir mehr. Nach diesem Autor ist das vermeintlich kleinste System von Teledisc zumindest das effektivste System.

19.1.2019: Wenn man heute die Saturn V bauen würde

Eine der Seltsamkeiten unserer Zeit ist, das die Nachfolger der Saturn V – die Ares V und SLS wenn man die Nutzlast auf das Startgewicht umrechnet, schlechter abschneiden als die Saturn V. Es gibt dazu zwei Gründe. Das eine ist das Verwenden von Feststoffboostern. Sie haben ein viel schlechteres Voll-/Leermasseverhältnis als die S-IC Stufe und noch dazu einen geringeren spezifischen Impuls. Die erste Stufe hat zwar wenig Einfluss auf die Nutzlast – bei der S-IC musste die die Leermasse um 14 kg sinken, dass die Nutzlast um 1 kg ansteigt, doch bei den Feststoffboostern reden wir von 120 t mehr Masse. Sprich 8 t weniger Nutzlast. Noch bedeutender ist der um 11 % kleinere spezifische Impuls, der sich auch auswirkt.

Der zweite Faktor ist das Ares V und SLS Parallelstufenraketen sind. Diese schneiden immer bei der Nutzlast etwas schlechter ab als Serienstufenraketen, da bei Stufentrennung die Zentralstufe schon einen Teil des Treibstoffs verloren hat, die Tanks aber erst bei Brennschluss abgeworfen werden.

Ich habe schon mehrfach im Blog Alternativen für eine Schwerlastrakete skizziert. Ich finde die Wahl der SRB aus wirtschaftlichen Gründen nicht einmal schlecht. Der heutige Blog ist also nur ein spekulativer. Es geht darum zu zeigen, was man in den letzten 50 Jahren an technologischen Fortschritten hat, die die Rakete besser machen.

Damit der Vergleich fair bleibt, sollen die Treibstoffmengen und Treibstoffarten der Stufen gleich bleiben. Ich will an dieser Stelle mal auf die möglichen Verbesserungen eingehen.

Triebwerke

Das F-1 war damals Stand der Technik bei LOX/Kerosin. Auch das Merlin 1D erreicht keinen höheren spezifischen Impuls. Damals beherrschten die USA nicht die Technologie der Hauptstromtriebwerke. Doch derzeit werden zwei Triebwerke mit dieser Technologie entwickelt: das BE-4 und das AR-1. Das BE-4 scheidet aus, weil wir ja die Treibstoffe beibehalten wollen – Methan hat nur die Hälfte der Dichte von Kerosin, was eine neue Stufe nötig machen würde. Vom AR-1 gibt es kaum Daten, doch man kann das Schub/Gewichtsverhältnis des RD-180 nehmen. Bei 2340 kN Schub auf Meereshöhe ersetzen drei AR-1 ein F-1. 15 die fünf F-1.

Etwas mehr Auswahl gibt es bei den Triebwerken für die beiden oberen Stufen. Schubstarke Triebwerke, die Wasserstoff verbrennen, sind das RS-27, RS-68 und das J-2X. Das RD-68 scheidet bei genauerer Betrachtung schnell aus. Es hat nicht nur einen sehr niedrigen spezifischen Impuls, sondern ist auch noch sehr schwer. Daneben wäre es für die dritte Stufe zu schubstark, es hat den dreifachen Schub eines J-2. Der wichtigste Vorteil des RS-68 wäre sein geringer Preis. Die natürliche Wahl wäre das J-2S. Es ist der Nachfolger des J-2 mit 30 % mehr Schub und einem höheren spezifischen Impuls. Am besten in den Performancedaten steht das RS-25E da. Es ist reaktiv schubstark. Bei der S-II ist das kein Problem, man kann einfach fünf J-2 durch drei RS-25 ersetzen. Bei der S-IVB muss man abwägen zwischen dem höheren spezifischen Impuls und dem Mehrgewicht von 1,2 t. Das wird dann die genaue Rechnung zeigen.

Was es in den Sechziger Jahren noch nicht gab, waren ausfahrbare Düsenverlängerungen. Beim RL-10B erhöht diese das Expansionsverhältnis um den Faktor 3 und den spezifischen Impuls um 110 m/s. Dafür ist das Triebwerk 30 % schwerer, liefert aber auch 10 % mehr Schub. Vor allem bei der ersten Stufe, die beim Start einen Düsenmündungsdruck haben, muss der verhindert das es turbulente Strömungen in der Düse gibt wäre das wichtig. Eine Düsenverlängerung könnte man schon in 10 km Höhe ausfahren und bei der vorherigen kurzen Düse bringt dies wirklich einen Mehrnutzen. Bei den Oberstufen dient die ausfahrbare Verlängerung vor allem dazu den Stufenadapter zu verkürzen, der schon bei der Saturn V 4,5 t wog und mit einer längeren Düse dann leicht auf über 10 t Masse kommt.

Strukturen

Erstaunlich wenig hat sich bei den Strukturen getan. Seit der Saturn V gab es nur einen wesentlichen Fortschritt bei den Alumniumlegierungen. Die Legierung AL2195 ist je nach Beanspruchung um 25 bis 40 % leichter als die Standardlegierung der Saturn AL2219, die übrigens auch heute noch eingesetzt wird, da sie preiswerter ist und leichter zu verarbeiten. Kohlefaserverbundwerkstoff als Werkstoff reduziert das Gewicht um weitere 25 %. Zumindest einen Testtank mit 5,5 m Durchmesser existiert schon.

Auf der anderen Seite ist da noch die Technologie der innendruckstabilisierten Tanks, die bis heute bei der Centaur eingesetzt wird und auch für die ACES-Oberstufe favorisiert wird. Man hat sie für die Saturn V nicht verwendet, weil die Stufe dann permanent unter Druck stehen muss. Das war bei den Stufen, in denen man Heliumflaschen und Isolation innen aufbringen, musste auch bei der Fertigung nicht vorgesehen. Daher habe ich dies nicht berücksichtigt.

Von leichteren Strukturen profitieren vor allem die beiden Oberstufen, bei denen die Tanks den Großteil der Masse ausmachen. Ebenso die Adapter zum CSM, die ja auch auf einen Mondkurs gelangen.

IU

Die Avionik der Ares V wäre nicht leichter als die der Saturn V gewesen - das verwundert nicht, denn auf den Teil, wo es die meisten Fortschritte gab – die Computer – entfällt am wenigsten Gewicht. Der Zylinder ist auch ein strukturelles Teil und das macht den größten Teil der Masse aus.

Moderne Rechner können aber mehr als damals. Charakteristisch war bei der Saturn V, das es große Treibstoffreserven gab und zwar in jeder Stufe. Bei der ersten Stufe war dies durch den Bordcomputer bedingt. Er übernahm die Berechnung der Bahn erst ab der zweiten Stufe und die erste Stufe musste dafür einen vorgegebenen Punkt = vorgegebene Ausgangsbedingungen für das Programm erreichen. Damit sie dies konnte, gab es große Reserven, durchschnittlich blieben 32-33 t Resttreibstoff in der Stufe. Das ist ein Viertel der Trockenmasse. Heute würde man sie ausbrennen lassen, denn ein Bordcomputer käme auch mit einem variablen Startpunkt zurecht. Die zweite Stufe war, die einzige bei der man aktiv den Resttreibstoff minimierte. Trotzdem war selbst bei Apollo 13 und zwei ausgefallenen Triebwerken der Resttreibstoff nicht geringer als bei den anderen Missionen. Lediglich die dritte Stufe hatte etwa 400 kg weniger Treibstoff beim Brennschluss, was bei nahezu 3.000 kg oder fast 3 Prozent der Treibstoffmenge auch verschmerzbar ist. Wenn man nur die Reste ansetzt, die das Space Shuttle erreichte, kann man ohne Problem bei der Saturn V die Nutzlast um 2-3 t erhöhen.

Wie viel man durch Bahnoptimierungen und Reduktion der Reserven gewinnen kann, zeigt auch die Ariane 5. Seit 2009 hat sich die Konstruktion kaum geändert, auch wenn es kleinere Verbesserungen gab. Die Nutzlast für den GTO ist aber durch Bahnoptimierungen und Reduktion von Reserven von 9,6 auf 11,2 t angestiegen.

Modellierung

Die S-IC setzt 15 AR-1 ein. Hochdrucktriebwerke erreichen ein besseres Voll-/Leermasseverhältnis als normale. Auf der anderen Seite wiegt die Düsenverlängerung auch etwas. Das soll sich egalisieren. Sie liefert einen 186 m/s höheren spezifischen Impuls und kann kurz vor der Hälfte der Brennzeit ausgefahren werden. Das dürfte in der Summe 100 m/s mehr bringen. Der spezifische Impuls der AR-1 liegt bei 305 / 324 s (2991 / 3177 m/s), das erhöht sich mit der Verlängerung dann im Vakuum auf 3277 m/s.

Die Tanks und Strukturen machen nur 37,5 t bei der S-IC aus. Die Einsparungen durch leichtere Legierungen bewegen sich daher im Rahmen. Sie erniedrigen die Masse um 16,4 t. Am meisten bringt die Reduktion der Treibstoffreste. Bei den Restmengen, die das Space Shuttle aufweist, wären das nur noch 7 anstatt 32 t.

Bei der zweiten Stufe kann man die fünf J-2 durch drei RS-25 mit höherem Schub ersetzen. Eine verlängerte Düse erhöht den spezifischen Impuls um 141 m/s, aber auch das Gewicht des Triebwerks auf 4 t.

Damit sind hier die Triebwerke mit 12 t erheblich schwerer als die J-2 mit 6,45 t. Dafür spart man bei den Strukturen ein, denn bei der S-II entfallen zwei Drittel der Masse auf die Tanks. Die einsparten 8,75 t bringen eine Menge. Auch hier bringt die Reduktion des Resttreibstoffs etwas Gewicht, aber nur 1,4 t, weil man schon bei der S-II ein gutes Treibstoffmanagment betrieb.

Bei der S-IVB gibt es zwei Triebwerke zur Auswahl. Das SSME wiegt mit 4 t (mit ausfahrbarer Düse) 1,6 t mehr als das J-2X und hat nahezu den doppelten Schub, doch die dritte Stufe braucht eigentlich nicht so viel Schub. Schub ist bei der dritten Stufe nicht so wichtig. Sie erreicht schon fast die Geschwindigkeit für einen Orbit. Daher habe ich beide Triebwerke geprüft. Bei den Strukturen ist durch den schweren Stufenadapter und nur ein Triebwerk am meisten Masse einsparbar: 6,75 t. Noch größer ist die Einsparung bei den Treibstoffresten: 400 kg anstatt 2,7 t. Von allen Stufen gab es hier die größten Reserven. Man wird sicher auch noch welche lassen, um eine Unterperformance der unteren Stufen auszugleichen, doch denke ich reicht 1 t in der dritten Stufe zur Kompensation aller Stufen aus.

Ergebnisse

Es zeigt sich bei der Simulation, dass der Einsatz des RS-25E in der dritten Stufe keine Nutzlast bringt, sie ist etwa 3 t kleiner als bei Einsatz des J-2X. Das liegt am schwereren Triebwerk und dadurch höheren Masse des Schubgerüsts. Die Nutzlast liegt mit 77 bzw. 80 t auf einem sehr hohen Niveau. Allerdings wäre schon bei der alten Saturn V, wenn man nur den Treibstoff weitestgehend aufgebraucht hätte, 53,5 t anstatt 48,6 t möglich gewesen.

Das meiste bringt die erste Stufe. Ersetzt man nur sie, gewinnt man schon 12 t, vor allem wegen des höheren spezifischen Impulses und geringeren Gravitationsverlusten beim Aufstieg. Sie sparen 400 m/s in der Endgeschwindigkeit ein.

Die zweite Stufe alleine bringt etwa 10 t mehr Nutzlast, die dritte 9 t. Da das Gewicht der IU konstant ist, ist es relativ wenig Zuwachs bei der dritten Stufe. Bezieht man es auf die Kosten, so sind die Arbeiten an der ersten Stufen am effektivsten. Die RS-25 werden die oberen Stufen deutlich teurer machen als es die Originale waren. Wenn ich allerdings davon ausgehe, dass die Rakete nur alle paar Jahre mal fliegt, spielt das eine untergeordnete Rolle. Schon bei der Saturn V waren die Kosten für die gefertigten Raketen viel kleiner als die Entwicklungskosten. Wenn ich nun die für ein Triebwerk komplett einsparen kann, dann kann es ruhig mehr kosten.

Der Vergleich mit der Wirklichkeit

Nun gibt es ja die Entwürfe zur Ares V und SLS und man kann vergleichen. Lassen wir die Verwendung von Feststoffboostern mal außen vor – für die SLS sind immerhin mal Booster mit flüssigen Treibstoffen als Alternative vorgesehen – so kann man projektierte Zentral- und Oberstufen vergleichen. Die Ares setzte auf RS-68B für die Zentralstufe, die SLS auf RS-25. Letztere bringen deutlich mehr Leistung, aber sind eben auch teurer, was sich finanziell bei der ersten Stufe mit vielen Triebwerken nicht so lohnt. Dafür gibt es zwei Gründe. Das andere ist, das die Zentralstufe der Ares V etwa 20 % schwerer als die der SLS ist und entsprechend mehr Schub braucht. Da sind die schubstärkeren RS-78 besser geeignet als die RS-25. Wichtiger ist aber das Modell der Finanzierung bei der SLS das nicht die typische Spitze am Ende der Entwicklung aufweisen darf, sondern gleichmäßig verteilt sein muss. Da kommen schon man-rated Triebwerke von denen es auch noch 16 Exemplare – ausreichend für vier Flüge im Arsenal gibt, gerade recht.

Für die Oberstufe war das J-2X vorgesehen. Diese Oberstufe war auch etwa doppelt so schwer wie die S-IVB. Heute setzt man dank Computeroptimierung weniger schubstarke Triebwerke ein. Das spart Kosten – mit dem gleichen Schub/Gewichtsverhältnis müsste es bei der Ares V EDS sonst zwei Triebwerke sein. Ich habe für die SLS ja schon mal durchgerechnet, dass mehr Schub zwar mit mehr Nutzlast korrespondiert, aber eben nur wenig mehr, nicht proportional zu den Kosten für das Triebwerk oder dem Schub.

Für die Oberstufe der SLS war auch das J-2X vorgesehen, doch wegen des schon angesprochenen Finanzierungsmodells hat man das Triebwerk zwar entwickelt, aber nicht qualifiziert und nicht zertifiziert. Das wäre noch ein ziemlicher Posten gewesen und dann wäre man auch nicht mit zwei J-2, die man umgebaut hatte, ausgekommen. Der aktuelle Vorschlag ist eine Stufe mit vier RL-10 Triebwerken. Das gab es schon mal – die Saturn I hatte auch eine Oberstufe mit sechs RL-10. Auch hier sind es vor allem Kostengründe. Das RL-10 existiert eben schon. Daneben hat es sogar noch einen etwas höheren spezifischen Impuls als das J-2X, was aber durch das höhere Triebwerksgewicht wieder egalisiert wird.

Am wenigsten hat sich bei den Strukturen getan. Heute geht der Trend dazu, hier Kosten einzusparen und leistungsfähige Triebwerke einzusetzen. Vergleicht man aktuelle US-Träger wie die Delta 4 oder Atlas V mit ihren Vorgängern so sind die Strukturfaktoren schlechter. Anstatt teurer Tanks mit Zwischenboden aus schwer bearbeitbaren leichten Legierungen nimmt man lieber getrennte Tanks mit einer Zwischentanksektion und einer schwereren Legierung, weil das günstiger in der Herstellung ist. Das sieht man auch bei den Strukturfaktoren der Ares V und SLS.

Das man Kohlefasertechnologie einsetzt dürfte noch utopischer sein. Es gibt bisher nur diesen Demonstratortank. SpaceX als einzige Firma, die sie einsetzen wollte, hat inzwischen auch davon Abstand genommen. SpaceX ist auch die einzige Firma, welche die leichtere Legierung 2195 einsetzt. Die NASA nutze sie nur beim Space Shuttle Tank und da auch nur beim Wasserstofftank wo der Gewinn am größten war.

Interessanterweise wäre einiges der heutigen Ansätze davon aber auch schon bei der Saturn V anwendbar gewesen. Das F-1A wäre schubstärker und würde so die Gravitationsverluste senken. Das J-2S als Vorgänger des J-2X hatte ebenfalls mehr Schub und einen etwas höheren spezifischen Impuls, wenn auch nicht so viel wie das J-2X. Die Reduktion der Treibstoffreste wäre ebenfalls möglich gewesen. Nicht zuletzt gab es Feststoffbooster wie sie heute als Startverstärkung verwendet werden schon damals. Es war auch in einem frühen Stadium so 1964/65 angedacht, die Booster der Titan 3 zu verwenden. Nur mit den Triebwerken, die es damals schon gab, käme man auf 58 t Nutzlast, ohne etwas an den Strukturen zu ändern. Mit vier Boostern der Titan 3 auf 72 t.

Rakete: Advanced Saturn V-2

Startmasse
[kg]
Nutzlast
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
{Prozent]
Sattelpunkt
[km]
Perigäum
[km]
Apogäum
[km]
C3
[km²/s²]
2.930.30480.000 10.9952.2772,73 185,00 220,00 384400,00 -
Startschub
[kN]
Geographische Breite
[Grad]
Azimut
[Grad]
Verkleidung
[kg]
Abwurfzeitpunkt
[s]
Startwinkel
[Grad]
Konstant für
[s]
Starthöhe
[m]
Startgeschwindigkeit
[m/s]
35.1952990 6.245190 902010 0
StufeAnzahlVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
Schub (Meereshöhe)
[kN]
Schub Vakuum
[kN]
Brenndauer
[s]
Zündung
[s]
11 2.232.000123.4003.277 35109,0 38466,0 179,64 0,00
21489.830 31.6904.551 6812,0 6812,0 306,08 181,00
31122.229 11.9684.393 1390,0 1390,0 348,47 490,00

Simulationsvorgaben

AzimuthGeografische BreiteHöhe StartgeschwindigkeitStartwinkelWinkel konstant
90,0 Grad28,8 Grad10 m0 m/s90 Grad 20,0 s
 PerigäumApogäumSattelhöheC3 Modus
Vorgabe220 km384.400 km185 km0 km2/s2 Fluchtbahn
Real256 km-596.964.175 km185 km0 m/s
InklinationMaximalhöheLetzte HöheNutzlast MaximalnutzlastDauer
25,5 Grad702 km702 km80.000 kg80.326 kg 837,4 s
Umlenkpunkte Nr. 1 Nr. 2 Nr. 3
Zeitpunkt 119,0 s 201,0 s 532,0 s
Winkel 33,9 Grad 18,0 Grad 0,0 Grad
Freiflugphase Startbedingung Startwert Endbedingung Endwert
Nicht definiert

Diagramme

Rakete: Advanced Saturn V

Startmasse
[kg]
Nutzlast
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
{Prozent]
Sattelpunkt
[km]
Perigäum
[km]
Apogäum
[km]
C3
[km²/s²]
2.929.36977.000 10.9951.7342,63 185,00 220,00 384400,00 -
Startschub
[kN]
Geographische Breite
[Grad]
Azimut
[Grad]
Verkleidung
[kg]
Abwurfzeitpunkt
[s]
Startwinkel
[Grad]
Konstant für
[s]
Starthöhe
[m]
Startgeschwindigkeit
[m/s]
35.1922990 6.245190 902010 0
StufeAnzahlVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
Schub (Meereshöhe)
[kN]
Schub Vakuum
[kN]
Brenndauer
[s]
Zündung
[s]
11 2.232.000123.4003.277 35109,0 38466,0 179,64 0,00
21489.830 31.6904.551 6812,0 6812,0 306,08 181,00
31124.294 14.0324.551 2270,0 2270,0 221,06 490,00

Simulationsvorgaben

AzimuthGeografische BreiteHöhe StartgeschwindigkeitStartwinkelWinkel konstant
90,0 Grad28,8 Grad10 m0 m/s90 Grad 20,0 s
 PerigäumApogäumSattelhöheC3 Modus
Vorgabe220 km384.400 km185 km0 km2/s2 Fluchtbahn
Real220 km-91.733.448 km185 km0 m/s
InklinationMaximalhöheLetzte HöheNutzlast MaximalnutzlastDauer
26,7 Grad719 km719 km77.000 kg77.868 kg 709,3 s
Umlenkpunkte Nr. 1 Nr. 2 Nr. 3
Zeitpunkt 119,0 s 201,0 s 532,0 s
Winkel 36,9 Grad 28,0 Grad 0,0 Grad
Freiflugphase Startbedingung Startwert Endbedingung Endwert
Nicht definiert

Diagramme

Die (fast) reine Feststoffrakete

Ich habe es im Blog sicher schon mal erwähnt, doch mit der Möglichkeit die Aufstiegsbahn genau durchzurechnen mit genaueren Resultaten, heute erneut das Konzept der reinen Feststoffrakete, und zwar als Trägerfamilie.

Reine Feststoffraketen sind an sich nichts neues. Die Scout hatte ihren Erstflug schon in den frühen Sechziger Jahren. Sie blieb lange Zeit auch die einzige ihrer Art. Inzwischen gibt es einige mehr: Die Pegasus, Vega, einige chinesische Feststoffraketen, die in den letzten Jahren ihren ersten Einsatz hatten, die japanische Epsilon die an die lange Tradition der Feststoffträger Japans anknüpft. In den USA gab es auch einige die aber nicht mehr aktuell sind, sprich seit Jahren keinen Start mehr hatten wie die Taurus und Athena. Von der Minotaur hört man auch recht wenig.

Das Konzept der Bündelrakete gab es schon mal mit der Conestoga die aus Bündeln von Castor IV Boostern bestand, mit einer PAM-D2 als letzter Stufe. In gewisser Weise war auch der frühe Ariane 6 Entwurf so eine Abwandlung des Konzepts, wenn auch nicht als reine Feststoffrakete.

Ich möchte mal diskutieren ob es sinnvoll ist eine Rakete nur aus Feststoffraketen aufzubauen.

Es soll das Konzept einer reinen Bündelrakete sein, mit nur einem Feststoffbooster, später werde ich noch zeigen, was man mit zwei Boostertypen anstellen könnte.

Fangen wir mit den Vor- und Nachteilen von Feststoffraketen an:

Pro

Kontra

Fasst man alle Punkte zusammen, so verwundert es nicht, das bisher Feststoffrakete vor allem kleine Raketen sind.

Man kann einen Kontrapunkt aber ausgleichen: Das ist die fehlende Regelungsmöglichkeit einer Feststoffrakete. Es gibt zwei Möglichkeiten dies auszugleichen. Die alte, simple Methode ist es, eine Freiflugphase einzulegen. Diese ist bei allen Feststoffraketen notwendig, da die gesamte Brenndauer so kurz ist, dass sonst die letzte Stufe in einer viel zu geringen Höhe Brennschluss hätte, mit der Folge, dass das Perigäum so niedrig wäre, dass ein Satellit es entweder schnell selbst anheben muss oder er verglüht wieder. Hohe kreisförmige Bahnen sind so aber nur zu erreichen, wenn man einen weiteren Feststoffantrieb passend zur Nutzlast zur Zirkulation hat. Trotzdem klappte das – bis in die Achtziger Jahren wurden Kommunikationssatelliten von der Delta mit einem Feststoffantrieb vom LEO in den GTO gebracht und dann die Bahn mit einem weiteren Feststoffantrieb zirkuliert. Nah dem gleichen Prinzip arbeitete auch die IUS.

Eine flexiblere Methode ist aber eine kleine Stufe mit flüssigen Treibstoffen, die zumindest optional bei vielen Feststoffraketen verfügbar ist. Ist sie rein druckgefördert, so schlägt man sogar zwei Fliegen mit einer Klappe – die Tanks müssen sowieso schwer sein, um die Vibrationen auszuhalten. Drucktanks sind aber eh schwer. Druckgeförderte Triebwerke sind zudem sehr einfach im Aufbau mit ebenfalls wenigen Fehlermöglichkeiten, haben aber lange Brennzeiten, machen so eventuell die Freiflugphase unnötig oder verkürzen sie und sie können erneut gezündet werden, um Bahnen zu zirkularisieren.

Ein Vorteil eines Feststoffantriebs ist das sein Schub und damit gekoppelt seine Brenndauer in weiten Grenzen frei justiert werden können. Das lässt fast beliebige Clusterungen zu, während das bei flüssigen Triebwerken dies finanziell und durch den Aufwand für Entwicklung und Produktion großer Triebwerke es Grenzen gibt. Man kann Raketen bauen, wie die Taurus bei der eine Stufe als erste und zweite Stufe eingesetzt wird - wenn die Brennzeit unter 90 s liegt, liefern die meisten Feststoffraketen genügend Schub um das Dreifache ihres eigenen Gewichtes anzuheben. Das reicht für dieselbe Stufe als zweite Stufe und Nutzlast bei einer erträglichen Anfangsbeschleunigung.

Ich habe mich für mein Beispiel für den Vega-C Booster P120C entschieden, der in der Brennzeit etwas höher liegt aber immer noch eine Stufung 2:1 ermöglicht.

Eine Bündelrakete würde wahrscheinlich nicht als übereinander gestufte Rakete realisiert werden, obwohl das auch möglich ist, sondern in konzentrischen Ringen. Bei gleichem Durchmesser aller Stufen gibt es folgende einfache geometrische Zusammenhänge:

Ich nehme nur zwei Ringe. Man muss aber nicht alle Positionen nutzen. Eine meiner Raketen ist z.B. die „1:4:14“. Das ist so zu lesen:

Bei schwenkbaren Düsen sind auch nicht achsen- oder punktsymmetrische Anordnungen möglich, wie man beim Space Shuttle und der Atlas 501 sieht. Ich habe darauf verzichtet.

Weitere Variationsmöglichkeiten gäbe es noch in der vertikalen Anordnung. So wäre eine 1:6:19 so denkbar:

Wie man sieht gibt es unzählige Variationen. Ich will aber nur einige vorstellen.

Raketendaten

Hier die wesentlichen Daten des P120C:

Parameter

Wert

Durchmesser:

3,40 m

Länge:

13,38 m (ohne aerodynamische Abdeckung)

Startmasse:

155.027 kg (ohne aerodynamische Abdeckung)

Trockenmasse:

13.393 kg (ohne aerodynamische Abdeckung)

Spezifischer Impuls (Vakuum)

2736 m/s

Brennzeit:

135,7 s

Zur Erklärung: Der P120C wurde gewählt, weil er zum einen den aktuellen Stand der Technik darstellt, Eine weitere positive Eigenschaft ist, das er relativ breit und kurz ist. Das ermöglicht es eine relativ große flüssige Oberstufe zu integrieren und gibt bei größeren Nutzlasten kleinere Sprünge im Durchmesser bei den dann nötigen großvolumigen Nutzlastverkleidung. Die lange Brennzeit erlaubt es auch ohne Freiflugphase auszukommen die eine weitere Variante bei der Berechnung darstellt.

Der angenehme Nebeneffekt ist aber das seine Kosten bekannt sind und damit eine Kostenschätzung besser möglich sind.

Man benötigt dann noch eine aerodynamische Verkleidung, zumindest bei den Stufen, die nur parallel gebündelt werden. Bei den ersten Ariane 6 Entwürfen wurde deren Masse mit 750 kg angegeben.

Für die „letzte Meile“ in den Orbit bzw. zur Bahnzirkularisierung habe ich noch eine dritte Stufe konstruiert, die sich an die Ariane 5 EPS anlehnt. Bei kugelförmigen Tanks für NTO und MMH von 1,20 m Durchmesser bleibt 1 m in der Mitte frei für das Triebwerk, ich habe das Aestus ausgesucht. Bei Bedarf könnte man auch einen zweiten Ring einziehen. Es ergibt sich bei den bekannten Dichten der Treibstoffe dann eine Zuladung von 4,19 t Treibstoff. Ich habe 4,1 t genommen, da noch Platz für das Druckgas genommen. Als Trockenmasse habe ich mich an der Trockenmasse der Delta-Oberstufe mit ähnlicher Treibstoffzuladung orientiert. Dazu käme noch eine VEB, ich habe hier die Vega VEB angesetzt, die wie diese Stufe einen integrierten Antrieb hat, das senkt die Strukturmasse deutlich ab.

Parameter

Wert (ein/ zwei Ringe von Treibstofftanks)

Durchmesser:

3,40 m

Länge:

2,0 m / 3,3 m

Startmasse:

5.500 kg / 10.000 kg

Trockenmasse:

1.400 kg / 1.800 kg

Spezifischer Impuls (Vakuum)

3187 m/s

Brennzeit:

455,3 s / 910,6 s

Es kann sich noch lohnen einen weiteren Antrieb einzusetzen, vor allem wenn die Nutzlast klein ist, denn das Antriebsmodul hat doch begrenzte Korrekturfähigkeiten. Ich habe darüber nachgedacht, den Z40 oder Z9A zusätzlich hinzugenommen, mich aber dagegen ausgesprochen. Mit zwei Ringen kann man auch das Antriebsmodul auf mehr Treibstoff aufrüsten und dies so aufwerten. Zudem steigt dann die Zahl der Varianten noch weiter an.

Kostenabschätzung

Die Kosten des P120C sind bekannt: 7,36 Millionen Euro pro Stück bei einer Produktionsrate von 26 pro Jahr (sechs Ariane 64 und zwei Vega-C pro Jahr). Für höhere Stückzahlen setze ich die die Lernkurve an, bei der die Kosten von n Stück n0,75 entsprechen.

Schwerer ist die Bezifferung der Kosten für ein Triebwerksmodul. Da es VEB, Nutzlastverkleidung und Antrieb enthält wird es teurer sein. Ich habe 15 Millionen € angesetzt. Bei Ariane 64 kostet die VEB mit Nutzlastverkleidung 13,22 Millionen € bei 6 Stück/Jahr.

Noch schwerer ist es die Kosten des Starts zu beziffern da diese stark abhängig von der Frequenz sind. Bei der Vega wurden 7 Millionen € bei 32 Millionen € Gesamtkosten genannt (22 %). Eine ESA-Broschüre weist dagegen 38 % Kosten für alle Services außer der Herstellung aus und bei der Ariane 5 sind es 22 von 180 Millionen Euro also 12,2 %. Je größer also die Rakete und je öfters sie fliegt desto kleiner sind die anteiligen Kosten. Ich habe daher 15 % angenommen, da die Bündelrakete alle Typen ersetzen soll.

Nutzlasten

Hier zuerst eine Tabelle der Maximalnutzlasten in LEO und GTO

Typ

Nutzlast LEO

Nutzlast GEO

2:1 kleine VEB

5,0 t

800 kg

2:1 große VEB

8,0 t

2,3 t

3:1 kleine VEB

10,0 t

2,1 t

3:1 große VEB

11,3 t

3,7 t

4:1 kleine VEB

14,7 t

3 t

4:1 große VEB


4,5 t

6:1 kleine VEB

19,3 t

4,7 t

6:1 große VEB


6,3 t

14:4:1 kleine VEB

68 t

20 t

19:6:1 große VEB

87 t

29,6 t

Kostenabschätzung pro Start

Geht man von der aktuellen Startrate von Ariane, Sojus und Vega aus, so käme man auf folgende Stückzahlen (Einzelstarts)

Das führt zu 105 Boostern pro Jahr und 21 VEB/Antriebsmodule

Für einen Booster reduziert das die kosten auf 5,2 Millionen Euro pro Stück. Die VEB-Kosten reduzieren sich wegen der höheren Stückzahl auch auf 11,4 Millionen Euro. Dazu kamen dann noch die 15 % für die Stardurchführung. Das wären dann folgende Preise:

Typ

Nutzlast LEO

Nutzlast GEO

Startkosten

2:1 kleine VEB (Vega-Ersatz)

5,0 t

800 kg

31 Mill. Euro

2:1 große VEB (Sojus-Ersatz)

8,0 t

2,3 t

32 Mill. Euro

3:1 große VEB (Ariane 5 kleine Satelliten)

11,3 t

3,7 t

38 Mill. Euro

4:1 große VEB (Ariane 5 mittlere Satelliten)


4,5 t

44 Mill. Euro

6:1 große VEB (Ariane 5 große Satelliten)


6,3 t

56 Mill. Euro

Wie nicht anders zu erwarten wird die Rakete immer billiger je größer sie wird. Ein Doppelstart einer Ariane 64 soll 120 Millionen Euro kosten bei 12 t Nutzlast, wobei davon noch die Masse der Sylda abgeht. Das entspricht zwei Einzelstarts von 4,5 und 6,3 t und Kosten von 100 Millionen Euro, also etwas günstiger. Der Sojus Ersatz wäre schon deutlich günstiger (Sojus: 70 Mill. Euro) und bei der Vega wäre es im Preis etwa gleich (32 Mill. Euro, aber mit höherer Nutzlast bei der Bündelrakete). Was aber wichtiger wäre – es gäbe mehr Flexibilität. Es gäbe auch eine Version für kleine und kleinste GEO-Satelliten. Man wäre nicht darauf angewiesen diese gut zu „paaren“. Letztendlich würden auch die Startkosten sinken, denn der hohe Prozentsatz beruht ja auf derzeit 13 Starts pro Jahr. Ein guter Teil nämlich die Kosten für das CSG sind aber fix. Bei 21 Starts pro Jahr sind dass dann weniger pro Start.

Weitere Variationsmöglichkeiten gibt es durch die Hinzunahme einer weiteren Stufe, vor allem bei den kleinen Versionen, wo die 13,3 t Leermasse der letzten Stufe die fast Orbitalgeschwindigkeit erreicht, dann viel am Gesamtgewicht ausmachen. Ich habe nicht alles ausrechnet für die kleinste Version:

Typ

Nutzlast LEO

Nutzlast GEO

Kosten

2:1 große VEB

5,0 t

2,3 t

32 Mill. Euro

2:1 große VEB + Zefiro 40

9,7 t

3,6 t

37 Mill. Euro

3:1 große VEB

11,3 t

3,7 t

38 Mill. Euro

Die kosten des Zefiro 40 habe ich mit 5 Millionen Euro angesetzt. Feststofftriebwerke werden mit kleinerer Größe nicht viel billiger und die Stückzahl pro Jahr dürfte als reiner Vegaantrieb ist kleiner als beim P120C.Wie der Vergleich, mit der 3:1 Version zeigt, ist die Hinzunahme zwar nicht billiger als die nächstgrößere Version, sie würde aber eine weitere Option für Zwischengrößen z.B. Satelliten zwischen 4,5 und 6,3 t Masse ober über 6,3 t Masse in den GTO eröffnen.

Resümee

Europa könnte mit einem flüssigen Modul und einem bis zwei Feststofftriebwerken drei Raketen mit dreizehn Stufen ersetzen, bei mehr Flexibilität, tendenziell kleineren Kosten und der Möglichkeit (zumindest im Prinzip beliebig große Raketen zu bauen – mit drei Ringen kommt man in den Nutzlastbereich einer Saturn V. Die Version 37:14:4:1 transportiert 47 t zum Mond – bei geschätzten 330 Mill. Euro pro Start.

28.1.2019: Die Lösung für ein überflüssiges Problem – mit der reinen Feststoffrakete zum Mond

Nachdem ich im letzten Blog schon eine reine Feststoffrakete skizziert habe, wird’s heute noch doller: Kann man mit derselben Technologie eine komplette Mondmission, also Landung und Rückkehr durchführen? Natürlich! Wir leben ja in Zeiten, wo alles möglich ist. Dragons können überall im Sonnensystem landen, warum dann nicht eine Mondmission ohne Riesenrakete, nur mit den schon entwickelten europäischen Feststoffboostern?

Also mal durchrechnet und die Aufstiegssimulation angeworfen (und zwei kleine Fehler die nur bei anderen Himmelskörpern zuschlagen auch gefunden und ausgemerzt). Fangen wir mit den Grundlagen an. Im Prinzip kann man zu 90 % mit einem reinen Feststoffantrieb landen und zu 100 % wieder zurückfliegen. Das erste hat schon Surveyor demonstriert: Die Raumsonde zündete in 76 km Höhe ihren Antrieb, der war kurz darauf in 7,5 km ausgebrannt und hatte den Großteil der Geschwindigkeit vernichtet. Danach übernahmen regelbare Flüssigkeitstriebwerke, welche die Restgeschwindigkeit von 130 m/s vernichteten. Wegen des festen Impulses müsste sonst der Antrieb genau über der Oberfläche Brennschluss haben – nicht 10 m über oder unter der Oberfläche. Dieser Weg ist auch für eine Landung eines bemannten Raumfahrzeugs gangbar. Wie bei Apollo könnte in der letzten Landephase die Besatzung noch den Kurs korrigieren. Der Rückstart würde dagegen ganz unproblematisch sein, denn da braucht man keine Schubregelung. Auch hier würde man etwas chemischen Treibstoff mitfuhren, um Bahnkorrekturen oder Fehler auszugleichen.

Wie man sieht, ist das Szenario das einer direkten Landung. Das ist zwar vom Gewicht her sehr ungünstig, aber sonst wird es sehr kompliziert, man müsste nämlich sonst vier Feststoffantriebe mit unterschiedlichen Gesamtimpulsen finden, die das Gefährt erst in eine Mondumlaufbahn bringen, dann die Landung durchfuhren, dann erneut in eine Mondumlaufbahn befördern und zuletzt diese wieder verlassen. Aber man spart sich dafür den Bau eines Mondlanders. Es gibt nur die Kommandokapsel.

Da ich auf entwickelte europäische Antriebe zurückgreifen will, analog zum letzten Block mit der Raketenfamilie aus P120C Boostern ist das natürlich umso schwerer je mehr Manöver man hat. Natürlich kann man einen Feststoffantrieb auf einen bestimmten Gesamtimpuls trimmen, indem man Treibstoff entfernt. Doch da die Brennschlussmasse gleich bleibt, ist das ungünstig. Ich habe mir während des Schwimmens aber mal im Kopf überschlagen, ob es geht und ich kam drauf, dass ich mit den vorhanden europäischen Antrieben, – es gibt, im Einsatz den Zefiro 9 und 23. Es kommt bald der Zefiro 40 hinzu und Zefiro 9 und 23 entstanden aus dem Zefiro 16, der zumindest einen Teil der Entwicklung durchlief. Das sind vier Antriebe mit Treibstoffzuladungen von etwa 9 bis 40 t. (Die Zahl gibt die Treibstoffzuladung an, allerdings nicht ganz exakt). Mal sehen obs funktioniert.

Geschwindigkeitsabschätzung

Zuerst muss die Geschwindigkeit bekannt sein. Relativ klar ist die Endgeschwindigkeit, die man erreichen muss. Die Mondfluchtgeschwindigkeit beträgt am Boden rund 2380 m/s. Um zur Erde zu gelangen, braucht man etwas weniger, es würde ausreichen 1/9 der Distanz-Erde Mond zu erreichen, damit die Sonde zur Erde fällt. Doch da auch bei der Landung das Gefährt nicht mit Geschwindigkeit 0 ankommt, habe ich die Berechnung mit Fluchtgeschwindigkeit gemacht. Bei Surveyor rechnet man mit 2600 m/s abzubauenden Geschwindigkeit und eine Simulation einer Mondrückkehr mit dem Zefiro 9 Antrieb ergab so ziemlich das Gleiche: 2568 m/s. Bei der Landung braucht man noch eine Reserve für das Schweben und den Abbau der Restgeschwindigkeit. Ich habe 200 m/s angesetzt, das sind unter Mondbedingungen rund 60 s Schwebezeit, wenn man noch 100 m/s Restgeschwindigkeit abbauen muss. Ebenso braucht man bei der Rückkehr ein Polster für Kurskorrekturen oder Kompensation von zu geringem oder zu hohem Gesamtimpuls. Ich habe 100 m/s dafür angesetzt. Bei dem flüssigen Treibstoff gehe ich von den Strukturfaktoren von druckgeförderten Stufen von 8 aus.

Damit fehlen nur noch die wichtigen technischen Daten der Antriebe:

Name

Vollmasse

Leermasse

Impuls

Brennzeit

Mittlerer Schub

Zefiro 9

12.000 kg

1.433 kg

2.902 m/s

119,6 s

256 kN

Zefiro 16

17.610 kg

1.610 kg

2.839 m/s

100 s

454 kN

Zefiro 23

26.300 kg

2.468 kg

2.820 m/s

77,1 s

871 kN

Zefiro 40

40.477 kg

4.238 kg

2.879 m/s

92,3 s

1131 kN

Der mittlere Schub wurde errechnet. Der meist in Datenblättern angegebene Schub ist der maximale Schub. Er ist jedoch bei Feststofftriebwerken nicht gleichmäßig, meine Simulation abreitet aber mit konstantem Schub, daher habe ich ihn aus Treibstoffanteil, Brennzeit und spezifischem Impuls errechnet.

Hauptproblem ist die Startmasse der Kommandokapsel. Die Apollo wog 5,4 t. Die Orion schon 8,9 t. Die Massen von Boeings und SpaceX Kapseln sind unbekannt. Schon ein Vergleich mit Apollo, wo der LM vor der Ankopplung knapp über 2 t wog, macht klar, dass man, wenn man die Orion landen will, man mit den obigen Antrieben nicht hinkommt, dann braucht man für die Landestufe Antriebe der Größe eines P80FW oder P120C. Ich habe für die Masse 7 t angesetzt, das wäre eine Apollo-Landekapsel mit Besatzung und Ressourcen, die sonst im Servicemodul steckten wie Sauerstoff, Wasserstoff (für die Brennstoffzellen) und Hochgewinnantennen.

Man muss vom letzten Zustand zurückrechnen. Für die 100-m/s Korrekturvermögen nach dem Rückstart reicht ein lagerfähiger antrieb. Bei 7 t Startmasse kommt man bei einem spezifischen Impuls von 2800 auf 255 kg Treibstoff. Die kann man problemlos in die Kapsel integrieren. Das würde mit Tanks und Triebwerken auf eine Masse von 7300 kg herauslaufen. Einfache Abschätzung (2600 m/s / spezifischen Impuls der Triebwerke ~ 1 → Exp(1) ~ 2,7 zeigt, dass man mit dem Zefiro 16 hinkommt. Ein voll befüllter Zefiro 17 kann diese Masse um 2918 m/s ändern. Für 2600 m/s errechnet sich bei einer Teilbefüllung des Zefiro 16 eine Masse von 22.500 kg auf der Mondoberfläche. Das ist schon mal eine Hausnummer, fast dreimal so schwer wie der Mondlander bei der Landung,

Problematisch wird die Landung. Man sieht schon beim Rückstart, dass die Masse sich mehr als verdreifacht. Nochmals dreimal mehr und man ist bei rund 80 t – und damit reicht auch nicht ein Zefiro 40 aus. Doch mache ich erst mal eine Berechnung. Zuerst käme noch der flüssige Antrieb für 200 m/s Abbremsung hinzu, der bei einem spezifischen Impuls von 3000 m/s (man braucht nun schon große Triebwerke und die haben einen höheren spezifischen Impuls, als die RCS-Düsen die bei 7 t Masse ausreichen) kommt man auf 1,8 t Startmasse und 225 kg Trockenmasse. Mithin 24,3 t Masse nach Ausbrennen des Antriebs. Ein Zefiro 40 addiert reduziert die Geschwindigkeit nur um 2.360 m/s zu reduzieren. Stark unterhalb der 2600 m/s.

Lösungen?

Es gäbe prinzipiell drei Lösungen:

Diese Lösung ist die unproblematischste, was den Ablauf angeht und erlaubt maximalen Eingriff durch die Besatzung. Sie hat jedoch einen Nachteil: Bei einer Startmasse von 34,4 t nach Abwurf des Zefiro 40 braucht man ein sehr schubstarkes Triebwerk, das anfangs sicher die Geschwindigkeit um 5-10 m/s reduzieren muss, sprich 170 bis 340 kN Schub hat. Das ist deutlich über dem Maximum eines druckgeförderten Triebwerks, die meist unter 50 kN liegen, das schubstärkste mir bekannte hat 92 kN. Man müsste also ein eigenes Triebwerk dafür entwickeln.

Ich lasse das mal offen und gehe jetzt zur benötigten Trägerrakete über, die 74,9 t auf eine Bahn mit einem Apogäum von 400.000 km befördern kann – natürlich als Bündelrakete.

Sie wird wirklich riesig:

Alle drei oberen Stufen haben verlängerte Düsen (spezifischer Impuls 2870 m/s wie beim Zefiro 40) und es kommt noch eine 2 t schwere VEB hinzu. Diese Rakete kann 75 t in die Zielbahn bringen, also genau die schwerste Konfiguration, wiegt beim Start 14.444 t.

Europa könnte also nur mit ihren Feststoffboostern eine bemannte Mondlandung durchführen – würde man so natürlich nicht machen. Auch wenn Feststoffbooster sehr zuverlässig sind, sind bei dieser Mission 89 Stück beteiligt, da sieht das zwar auf dem Paper möglich aus, jedem Missionsplaner würden sich aber die Nackenhaare sträuben. Zudem würde jede Raumfahrtagentur, die ich kenne, eine neue Riesenrakete konstruieren und dafür das LOR-Verfahren einsetzen, das die Masse dann wieder deutlich verringert. Beim Direkten Abstieg hängt wirklich alles an der Kapselmasse. Würde man z.B. das Gemini-Raumschiff landen, das nur halb so viel wiegt, man käme mit Zefiro 9/23 für die Antriebe aus, läge auch beim Triebwerk für die Endphase im Schub deutlich geringer in einem Bereich, der mit Druckbeaufschlagung möglich ist und auch die Startrakete benötigt dann nur 43 anstatt 87 Raketen.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99