Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 593: 1.6.2020 - 15.6.2020

1.6.2020: Die Mai Nachlese von SpaceX

Wenig Neues gab es Coronabedingt von SpaceX. Den Artikel habe ich eigentlich fast fertig gehabt und wollte nur noch was zur Demo-2 Mission einschieben, als ich dann las, das SpaceX schon wieder – zum vierten Mal in wenigen Monaten. Nach November, Februar und März einen Starship Prototypen in die Luft gejagt hat, diesmal nicht bei einer Betankung, sondern einem Bodentest. Wie es dazu kam, ist nur durch das Video schwer zu rekonstruieren. Das einzige Raptor wurde kurz gezündet und wieder abgestellt, dann passiert etwa 2 Minuten lang nichts, dann gibt es eine intensive Freisetzung von Gasen (weiße Wolken) und dann explodiert der Tank. Zerstört wurde Starship SN4, aber keine Angst, SpaceX hat schon SN5 und SN6 in Produktion und arbeitet an SN7. Geplant war am 1.6.2020 ein erster Hop, man weiß dies aber auch nur daran, das SpaceX für diesen Tag den Flugraum bis in 7900 m Höhe hat sperren lassen. Wie die NASA es rechtfertigt 135 Millionen Dollar an SpaceX zu geben, nur um zu untersuchen ob man das Starship im Artemisprogramm einsetzen kann ist mir ein Rätsel. Um an einen ähnlichen Negativrekord zu kommen, muss man bei der US-Raumfahrt weit zurückgehen.

Dann startete am Samstag die Spacex Demo-2 Mission. Mich verwunderte das ich nichts von einer Landung der Kapsel lass. Die sollte doch eigentlich weit unter den 22 t Nutzlast liegen die SpaceX reklamiert, selbst unter den 15 t die nachweislich schon transportiert wurden. Insgesamt sieht es ziemlich beengt dort aus. Aber anders als bei Apollo sind die Astronauten ja auch nicht lange in der Kapsel, sondern schon nach 19 Stunden bei der ISS.

Wie lange die bemannte Demo-2 Mission dauern soll, weiß keiner. Na so was bei der sonst so vorausplanenden NASA? Nun ja man weiß nicht, wie lange die Solarzellen der Dragon durchhalten. Nein das ist kein Witz und kein Beitrag in Münchhausens Kolumne. Während andere Satelliten Jahre, ja Jahrzehnte mit Solarzellen mit Strom versorgt werden, halten die Solarzellen der Dragon nur wenige Monate durch. Der einfache Grund: SpaceX verwendet normale kommerzielle Solarzellen, wie sie auch in Solarmodulen auf dem Dach verbaut werden (übrigens von chinesischen Herstellern, sonst betont doch SpaceX das sie alles selbst machen und ihre Falcon (fast) vollständig „amerikanisch“ wäre). In der Umlaufbahn der ISS spielen Partikel wie Protonen und Alphateilchen aus dem Van Allen Gürtel und der Sonne keine Rolle bei der Alterung der Zellen, aber natürlich erreicht die UV-Strahlung und die Röntgenstrahlung der Sonne die ISS und es gibt noch die oberste Atmosphäre, bestehend aus Ionen und Radikalen, welche dem Material zusetzen. Normale Solarzellen wurden schon bei der Frachtdragon eingesetzt. Dort damit begründet, dass diese nur einen Monat im Orbit bleiben. Doch die Crew Dragon wird erheblich länger im Orbit bleiben. Das ist keine Ausnahme. Auch die Bordcomputer bestehen aus strahlentoleranter Elektronik, wie sie für Flugzeuge und Militärhardware eingesetzt wird, aber nicht strahlenresistenter. Auch sie fielen schon mal kurz nach dem Start aus, gottseidank wegen redundanter Auslegung ohne Auswirkung auf die Mission. Bei den Solarzellen rechnet man mit 110 Tagen Mindestlebenszeit, die Demo-2 Mission könnte bis 210 Tagen dauern. Wann man zurückkehrt, will man von dem Zustand der Solarzellen respektive ihrer Leistung abhängig machen. Sollten es weniger als 180 Tage sein, dann hat SpaceX es fertiggebracht, ein Raumschiff neu zu entwickeln das weniger lange lebt wie die Sojus, die im Prinzip die Technologie von 1968 einsetzt. Dort ist die autokatalytische Zersetzung von Wasserstoffperoxid und anderen Flüssigkeiten übrigens der Grund für die Beschränkung für die Lebensdauer auf sechs Monate.

Über diese Sparaktion von SpaceX gibt es zwei Meinungen. Die einen preisen sie an, um die Kosten der Raumfahrt niedrig zu halten, die anderen sagen: es gibt nicht umsonst Standards, die sich eingebürgert haben und wenn man Hardware einsetzet die nicht diesen Standards entspricht, so geht man unnötigerweise ein Risiko ein auch wenn man die Vorteile, wie hier eine Lebensdauer über Jahrzehnte nicht benötigt. Ich denke das ist wie im täglichen Leben, wo ich die Wahl habe zwischen einem teuren Markenprodukt, das aber eine lange Garantie hat und von dem man weiß, dass es zuverlässig ist und einem billigen NoName Produkt, das vielleicht nach 6 Monaten reif für den Müll ist. Auch hier wird man für jede Option eine plausible Begründung finden.

SpaceX hat wie Boeing auch eigene Raumanzüge. Mir gefallen sie ehrlich gesagt nicht so toll. Sie sehen irgendwie schlicht und schlecht geschnitten aus. Aber solange sie ihren Zweck erfüllen, ist das ja egal. Wahrscheinlich schließen sich auch gutes Aussehen und Funktion aus, denn die meiner Ansicht nach schicksten Raumanzüge hatten die Mercury Astronauten. Nur waren das gar keine echten Astronautenanzüge, sondern angepasste Druckanzüge für Kampfflugzeugpiloten.

Da die Mai Nachlese so recht kurz ausfällt, will ich den Blog mal nutzen mich mit der Falcon Heavy XL zu beschäftigen. SpaceX soll ja das Lunar Gateway mit Fracht versorgen. Zumindest die Crewed Dragon wiegt leer 9.520 kg. Die unbemannte Variante wird wohl leichter sein, aber bei offiziell 16,8 t Nutzlast der Falcon Heavy zum Mars, zum Mond benötigt man fast die gleiche Geschwindigkeit, wird man, wenn man noch den Treibstoff rechnet, denn man braucht, um in eine Mondumlaufbahn einzutreten, die Nutzlast sehr klein sein. Das obwohl das Lunar Gateway in der Zukunft liegt, wird nicht das Starship einsetzt. Stattdessen eine noch nicht existierende Dragon XL die auf eine leistungsfähigeren Falcon Heavy startet. Die NASA hat ja schon kritisiert, das SpaceX nichts über beide Vehikel herausrückt. Doch das soll mich nicht davon abhalten, mal etwas zu spekulieren wie man die Falcon Heavy auf die benötigte Nutzlast steigert.

Ich fange mit den Grundlagen an, weil sich erfahrungsgemäß bei meinen SpaceX-Blogs hier Leute verirren, die keine Ahnung von den Grundlagen der Raumfahrt haben.

Um die höchste Nutzlast bei gegebener Startmasse zu erhalten, muss man, wenn man nur die Raketengrundgleichung ansieht, bei einer zweistufigen Rakete wie der Falcon Heavy man folgende Gleichung aufstellen:

v = ln (Startmasse / Brennschlussmasse erste Stufe) * Ausströmgeschwindigkeit erste Stufe + ln (Startmasse Zü7ndung zweite Stufe / Brennschlussmasse zweite Stufe) * Ausströmgeschwindigkeit zweite Stufe

Es gibt hier sechs Variablen: je zwei Ausströmgeschwindigkeiten, Vollmassen und Leermassen. Selbst wenn die Ausströmgeschwindigkeit und die Massen gegeben sind, variieren die Teiler alleine durch die Nutzlast. Das ist also nicht geschlossen lösbar.

Es gibt aber eine wichtige Eigenschaft der Logarithmusfunktion. Da es hier um Verhältnisse geht, sinkt die Nutzlast mit steigenden Thermen Vollmasse/Leermasse ab. Ein Optimum erhält man wenn in etwa gilt: ln(erster Therm) ~ ln(zweiter Therm).

Und daraus kann man mit kleinem Fehler bedingt durch die Unbekanntheit der Stufenmassen ableiten, das eine Schätzung für die Masseverhältnisse der Stufen etwa bei Wurzel(Startmasse / Nutzlastmasse) – 0.5 liegt. (Gilt nur, wenn spezifischer Impuls von erster und zweiter Stufe in etwa gleich groß sind).

Bei 17 t geschätzter Masse zum Mond und 1428 t Startmasse sollte der Teiler bei 8,7 liegen. Die Oberstufe sollte also rund 147 t wiegen. Sie ist aber deutlich leichter. Genau weiß man es nicht, da es keine Daten von SpaceX gibt.

Die folgenden Berechnungen basieren auf einer von mir modellierten Falcon Heavy die 20 t in den GTO erreicht – immerhin mehr als die vor Fachpublikum präsentierte Nutzlast von 15 t in den GTO (ja auf der Website steht mehr, doch das sind eben SpaceX Variante von Fake News bzw., man sollte nicht alles glauben, was im Internet steht).

Bei mir wiegt die zweite Stufe 96,7 t voll und 5 t leer. Ähnliche Angaben findet man auch woanders, sie lassen sich im wesentlichen aus dem Schub, spezifischen Impuls und Brennzeit der Oberstufe ableiten. Mehr als 108 t Treibstoff kann sie selbst bei Übernahme der unrealistischen Angabe von 348 s spezifischen Impuls (bei einem Nebenstromtriebwerk, wie man leicht durch Tools wie CEA2 nachprüfen kann, nicht erreichbar) nicht haben. Ich ging zudem von einer Schubreduktion aus, sobald 6 g Beschleunigung erreicht sind, darauf deutet auch der „Users Guide“ hin. Ich habe nun ganz einfach die Oberstufe in mehreren Stufen jeweils um 10 t Startgewicht und 200 kg Trockengewicht schwerer gemacht und die Brennzeit angepasst. Das entspricht in etwa dem was Tanks für LOX/RP-1 zusätzlich wiegen, inklusive anderer Zuschläge für Belastungen durch die schwerere Stufe und Nutzlast erhöht. Die erste Stufe habe ich konstant gelassen, in der Realität würde sie durch die schwerere Oberstufe auch etwas schwerer werden, doch das macht wenig aus. Wäre die Falcon Heavy tatsächlich auf 63,8 t Nutzlast ausgelegt, woran ich aber berechtigte Zweifel habe, wäre das Erhöhen zumindest bei den ersten vier Schritten ohne Auswirkung auf die erste Stufe.

Die Simulation geht von einer Fluchtbahn mit einem C3 von -2 km/s aus, entspricht in etwa einem Apogäum in 390.000 km Entfernung, je nachdem wann die Rakete Brennschluss hat. Dabei gehe ich von einem direkten Aufstieg aus, es muss also nicht zuerst eine Kreisbahn erreicht werden. Das erhöht die Nutzlast, weil so das Perigäum sehr niedrig liegen darf. Einzige Nebenbedingung: Während des Aufstiegs darf die Rakete nie weniger als 180 km Höhe erreichen, wenn sie diese Grenze erst mal überschritten hat.

Hier die Ergebnisse:

Rakete

Masse Oberstufe

Nutzlast

Original

96,7 t

17.000 kg

+10 t

106,7 t

17.700 kg

+ 20 t

116,7 t

18.200 kg

+ 30 t

126,7 t

18.600 kg

+ 40 t

136,7 t

18.600 kg

+ 50 t

146,7 t

18.600 kg

Wie man sieht, lag ich mit einer Schätzung gar nicht mal so schlecht. Das Optimum wird schon bei etwas kleinerer Stufe erreicht. Das liegt daran, das die Raketengleichung keine Aufstiegsverluste beinhaltet die aber mit zunehmendem Gewicht von Oberstufe und Nutzlast zunehmen und das Optimum wieder etwas nach unten verschieben. Immerhin sind so 1.600 kg mehr Nutzlast möglich. Das dürfte beim Lunar Gateway etwa 1.000 bis 1.100 kg mehr Nettofracht bedeuten, denn dabei ist natürlich auch der Treibstoff enthalten, denn man braucht, um die Mondumlaufbahn zu erreichen. Die 4,4 t Fracht, die die NASA pro Mission wünscht, wird man so nicht mit einem Flug erreichen, aber sofern es nicht andere Masse steigernden Umbaumaßnahmen gibt, sind etwa 3 bis 3,4 t Fracht möglich. Die 4,4 t könnte man so in zwei Flügen zu je 2,2 t erreichen oder eben mit einer leichteren Dragon als der derzeitigen startet. Bei (abhängig von der Trockenmasse des Antriebssystem, Reserven, Trajektorie und spezifischem Impuls) etwa 8 bis 8,7 t Trockenmasse müsste es mit den 4,4 t hinhauen. Wenn die Frachtdragon XL also 0,8 bis 1,5 t leichter als die Crewed Dragon ist, müsste man mit der Verlängerung der Falcon Heavy die 4,4 t Fracht pro Mission erreichen.

Alternativ setzt SpaceX die erste Generation der Dragons ein, die (ohne Treibstoff) nur etwa 5 t wog, dann klappt die Beförderung auch ohne Erhöhung der Nutzlast der Falcon Heavy. Offiziell sind diese aber aufkündigt, sogar bei Transporten der ISS.

Die nächste Frage ist, ob das so geht? Meiner Ansicht nach hat SpaceX ein Längenproblem. Die Falcon 9 ist seit der ersten Version um 17 m länger geworden und das gilt auch für die Falcon Heavy. Es ist schon auffällig, das die Nutzlastverkleidung sehr kurz ist – auch im Vergleich zu anderen Trägern, die nur Einzelstarts durchführen die Atlas V, Delta 4 und Proton. Diese haben Nutzlasthüllen von 17 bis 20 m Länge. Ein möglicher Grund für die Längenbeschränkung kann die Aerodynamik sein. Denn seitlich angreifende Kräfte wie durch die Atmosphäre übertragen werden, sind um so stärker je länger die Rakete ist. Allerdings fliegen die Dragons ohne Nutzlasthülle, damit sind sie kürzer und das erlaubt die Verlängerung. Die Nutzlastverkleidung hat 13,9 m Länge, die Dragons sind 8,1 m lang. Grob geschätzt könnte man also um knapp 6 m die Oberstufe verlängern. Bei der Kombination LOX/Kerosin fasst eine Tankverlängerung um 1 m etwa 10 bis 11 t Treibstoff, abhängig vom Mischungsverhältnis und Temperatur. Die 6 m wären also gut für 60 t Treibstoff, benötigt werden 30 t, das müsste also gehen.

Für die Erststufe ergibt sich sogar ein positiver Effekt durch die schwerere Spitze, denn so findet die Abtrennung bei niedrigerer Geschwindigkeit statt was die Landung erleichtern würde – würde, weil ich mit einer Version ohne Treibstoffreserven für die Landung gerechnet habe.

Was viel interessanter ist und ein Licht auf SpaceX Pläne wirft: während Musk die Falcons schon vor Jahren als eine Lösung deklariert hat, die man nur bei Kunden einsetzt, die "besonders konservativ" sind und sein Starship in hohen Tönen lobt, obwohl sie bisher drei (vier, das kommt davon, wenn man den Artikel schon einige Tage vor dem 1.6 schreibt …) Prototypen schon bei der Betankung zerlegt haben, sprechen die abgeschlossenen Verträge eine andere Sprache. Der Frachtkontrakt für das Lunar Gateway liegt in ferner Zukunft, derzeit gibt es das ja das Gateway nicht und inoffiziell rechnet man bei der NASA nicht vor 2024 damit. Ähnliches gilt für andere Starts, deren Datum veröffentlicht wurde, und die 2023 oder 2024 stattfinden. Alle diese Missionen in einigen Jahren werden aber von Falcons durchgeführt. Nun wollte Musk das Starship ja innerhalb eines Jahres zum ersten orbitalen Testflug schicken – selbst wenn dies zwei oder gar drei Jahre sind, sollte es spätestens 2022 einsatzfähig sein. Offensichtlich wollen die Kunden es nicht oder glauben nicht an es. (nach vier Explosionen auch nicht verwunderlich) Wenn es kommt, so wird es wohl SpaceX selbst einsetzen. Sie wollen schließlich in der zweiten Ausbaustufe von Starlink 42.000 Satelliten starten. Selbst wenn sie die 60 Satelliten, die jetzt gestartet werden gehalten werden können, (eher unwahrscheinlich weil die anderen Bahnen eine höhere Bahnneigung und Höhe haben, was die Nutzlast absenkt). Dann sind das 700 Starts einer Falcon 9. Die Falcon Heavy setzen sie ja dafür nicht ein, obwohl es so dreimal schneller ginge. Mit dem Starship sollte es zumindest theoretisch fünfmal weniger Starts geben, was immer noch für eine gute Auslastung der Starships mit mehr als 100 Starts sorgen dürfte.

Kleines Bonbon am Rande – Oneweb, obwohl bankrott, hat bei der FCC ebenfalls einen Antrag eingereicht um die Genehmigung, 48.000 Satelliten starten zu dürfen.

2.6.2020: Alternative Fakten zum „Sitzplatzpreis“ bei SpaceX

Was die wie immer gut uninformierten deutschen Medien wiedergaben war auch, das mit dem SpaceX Demo-2 Start eine Neunjahresperiode endete in der die USA von russischen Sojus Starts abhängig waren. Dabei wurde auch betont, das die Kosten für einen „Sitzplatz“ laufend ansteigen, zuletzt auf 81,6 Millionen Dollar. Das sollte nun preiswerter werden.

So viel von unseren gewohnt inkompetenten Medien. Man hat nur ein paar Details vergessen. So das die Verzögerung des Jungfernflugs um 2,5 bis 3 Jahre (die NASA plante ihn für 2017) dazu führte das die NASA weitere Sitzplätze kaufen musste und zwar nicht nur einmal.

Vor allem wird’s nicht billiger. Ich zitiere aus dem Report des Office of Inspector General, eine Art Bundesrechnungshof in den USA, der die Geldverschwendung von Behörden anprangert:

„Assuming four astronauts per flight and using publicly available information, the estimated average cost

per seat is approximately $90 million for Boeing and approximately $55 million for SpaceX“

Klingt erst mal gut, Boeing ist etwas teurer als die Sojus, SpaceX deutlich billiger. Aber bitte genau lesen. Dort steht: „four astronauts per flight“. Bei den Russen flogen im Mittel 1,5 Astronauten pro Sojus (6 von 12 jährlich transportierten Astronauten, dazu 4-5 rußen und 1-2 Astronauten von ESA, JAXA, CSA). Die jährlichen Kosten betragen also:

Man hat also vier Sojus Flüge durch zwei US-Flüge ersetzt. Die kosten aber 580 anstatt 490 Millionen Dollar, sind mithin also teurer. Der springende Punkt ist eben das man die höheren Startkosten durch mehr Astronauten pro Flug teilt, aber jeder Start ist teurer.

Die volle Zahl an Astronuten – beide Raumschiffe haben Platz für sieben Sitze wird man aus anderen Gründen nicht ausnützen können. Denn die Astronauten brauchen Versorgungsgüter. Hier eine Liste der Starts 2019 von Versorgungsraumschiffen zur ISS:

Transporter

Startdatum

Fracht

Anteil

Progress MS-11

4.4.2019

3.400 kg, davon 900 kg Treibstoff


Progress MS-12

31.7.2019

3.424 kg, davon 850 kg Treibstoff


Progress MS-13

8.12.2019

2.480 kg, davon 650 kg Treibstoff

32 %

Dragon CRS-17

4.5.2019

2.482 kg


Dragon CRS-18

25.7.2019

2.290 kg


Dragon CRS-19

5.12.2019

2.617 kg

25,3 %

Cygnus NG-11

17.4.2019

3.436 kg


Cygnus NG-12

2.11.2019

3.705 kg

24,5 %

HTV-8

24.9.2019

5.300 kg

18,2 %

Gesamt 2019


29.134 kg, davon 2.400 kg Treibstoff


Die 2.400 kg Treibstoff werden immer benötigt um die Bahn der ISS aufrechtzuerhalten, das war 2019 sogar relativ wenig, im Mittel rechnet die NASA mit 3,800 kg pro Jahr. Der Rest, 26.734 kg, ist in irgendeiner Weise an die Astronauten gekoppelt. Sei es Wasser oder Gase, Essen oder Ausrüstung.

Würde man bei jedem Flug nun alle verfügbaren Sitze, also sieben einsetzen, dann würde das wahrschenlich den Start der Dragon und des Starliners kaum verteuern. Dann hätte die ISS dauerhaft drei Astronauten mehr, wenn die Russen ihre drei Sojussitze ausnutzen, sogar vier (sie würden dann natürlich nur noch zweimal pro Jahr wie die USA starten, es wären dann permanent drei Kosmonauten und sieben Astronauten an Bord). Die Frachtgüter müssen nun nach Beteiligung an der ISS aufgebracht werden. Das geschieht ohne Bezahlung über Güter. So entsprechen die 5,3 t des HTV Japans Beteiligung von 12,3 % am westlichen Teil der ISS (ohne Russland). Europa baut dafür das Servicemodul für die Orion, vorher transportierten fünf ATV Fracht zur ISS. Gehen wir von bisher (im Schnitt) drei US-Astronauten aus, so würde das US-Frachtaufkommen das passend dazu 49,8 % ausmacht um den Faktor 7/3 steigen. Es wären also anstatt fünf Flügen elf bis zwölf nötig. Und das wird teuer. Die NASA hat ja nur die Preise pro Mission für CRS-1 veröffentlicht, man kennt aber die Summe über alle CRS-2 Missionen: 6310 Millionen $ für 87.900 kg.

Nun ein einfacher Dreisatz:

und das jedes Jahr...

In der Praxis könnte es etwas besser werden, wenn man die beiden größeren internationalen Partner ESA und JAXA für mehr Engagement im Tausch gegen einen Astronautensitz überreden könnte, aber ich denke nicht, dass dies zumindest bei der ESA klappt. Das ISS-Budget war bei den letzten Ministerratstagungen immer in der Diskussion. So wird es bei einem Astronauten mehr bleiben, bei moderaten Zusatzaufwendungen für die Fracht.

4.6.2020: Vorbeiflugsonden an Uranus und Neptun

In Nature 579/2020 wurde vorgeschlagen die nächste Fluggelegenheit zu Uranus (und Neptun) zu nutzen, um Sonden zu diesen Planeten auf den Weg zu bringen. Das hat mich inspiriert, mal dies durchzurechnen. Ich will heute aber nicht die Ergebnisse meiner Simulation im Detail präsentieren, sondern zwei Vorschläge machen.

Startfenster zu den Planeten

Im Prinzip müssen für eine Mission zu Uranus oder Neptun drei Planeten in der richtigen Position sein: die Erde, Uranus oder Neptun und Jupiter, da aller Vorbeiflüge über Jupiter erfolgen.

Startfenster kann man relativ einfach berechnen. Das geht, weil die Erde, eine so viel kleinere Umlaufdauer hat, dass sich Jupiter und die äußeren Planeten in einem Umlauf kaum bewegt haben. Für zwei Planeten kann man eine gemeinsame Periode, mithin die Zeit zwischen zwei Startfenster errechnen nach:

1/Periode = 1/Umlaufdauer11/Umlaufdauer2

Umlaufdauer1 ist der Planet mit der kürzeren Periode und Umlaufdauer2 dann der mit der längeren. Für die Werte von 11 Jahre 315 Tage für Jupiter, 84 und 164 Jahre für Uranus und Neptun erhält man 13,8 und 12,8 Jahre. Nach dem Nature Aufsatz ergäbe sich ein optimaler Start für Neptun 2031 und Uranus Mitte 2030. Angedacht war mal eine Raumsonde New Horizons II, ein Nachbau von New Horizons, die 2008/9 starten sollte, das war zwei Startfenster vorher und weitere zwei Startfenster vorher, 1979 gab es das direkte Startfenster für Jupiter-Uranus das man für eine dritte Voyager nutzen hätte können.

Um dieses optimale Fenster gibt es einen Zeitraum von zwei bis drei Jahren, in denen Jupiter die Sonde umlenken kann. Sie unterscheiden sich in der Reisezeit aber auch wie stark man sich Jupiter nähern muss und davon abhängig, wie schnell man sich Uranus nähert.

Sie Abbildung in Nature zeigt eine relativ schnelle Bahn, bei der man Uranus 7 Jahre nach Jupiter erreicht, das bedeutet für mich das es eine Vorbeiflugsonde ist, denn dann erreicht man Uranus mit hoher Geschwindigkeit.

Das NASA Trajektory Search Tool liefert folgende Bahnen zwischen 2030 und 2040: (maximal 10 Jahre Flugdauer)


Earth_Departure

Dest_Flyby

Duration
(days)

Injection
DV (km/s)

Post-injection DV (km/s)

Total DV (km/s)

Flyby speed (km/s)

Route

May-03-2033

Feb-18-2041

2848

6.57

0

6.57

24.39

EJU

Mar-27-2031

Nov-14-2040

3520

6.57

0

6.58

24.81

EJU

Jun-07-2034

Apr-15-2044

3600

6.6

0

6.6

22.13

EJU

Mar-24-2030

Apr-20-2040

3680

6.69

0

6.69

25.91

EJU

Jul-12-2035

Aug-24-2045

3696

7.1

0.11

7.21

21.81

EJU

Für Uranus ist auch eine Einbremsung eine Umlaufbahn möglich. Das sind die Bahnen mit dem niedrigsten dV für das Einbremsen:


Earth_Departure

Dest_Arrival

Duration (days)

Injection DV (km/s)

Post-injection DV (km/s)

Total DV (km/s)

Route

Jun-07-2034

Jun-02-2044

3648

6.6

1.14

7.74

EJU

Jul-28-2035

Jul-23-2045

3648

7.22

0.9

8.12

EJU

May-19-2033

May-15-2043

3648

6.67

1.56

8.23

EJU

Aug-31-2036

Aug-27-2046

3648

7.92

0.85

8.77

EJU

Sep-25-2039

Sep-20-2049

3648

8.28

0.86

9.14

EU

Aug-20-2032

Aug-16-2042

3648

8.27

0.91

9.18

EU

Sep-22-2038

Sep-17-2048

3648

8.35

0.87

9.21

EU

Aug-18-2031

Aug-13-2041

3648

8.3

0.91

9.21

EU

Aug-15-2030

Aug-10-2040

3648

8.38

0.92

9.3

EU

Sep-19-2037

Sep-15-2047

3648

8.46

0.87

9.33

EU

Zwischen 2033 und 2036 sind Flüge über Jupiter möglich mit einem optimalen Startzeitpunkt im Juni 2034, die Abbildung in Nature spricht von Mai 2034, das passt also. Für Neptun gibt es nur zwei Startfenster bei einer Reisedauer von maximal 10 Jahren:


Earth_Departure

Dest_Flyby

Duration (days)

Injection DV (km/s)

Post-injection DV (km/s)

Total DV (km/s)

Flyby speed (km/s)

Route

Feb-23-2031

Feb-18-2041

3648

6.68

0.01

6.69

27.34

EJN

Mar-29-2032

Feb-05-2042

3600

7.24

0.01

7.25

26.71

EJN

Die Startgeschwindigkeit zur Erde ist sowohl für einen Neptun Start 2031 wie auch zu Uranus 2024 bei etwa 6,6 bis 6,7 km/s über der einer 200-km-Parkbahn, also etwa 14,5 km/s. Es bietet sich an, bei zwei Starts innerhalb von drei Jahren eine Raumsonde doppelt zu bauen.

Beim Vorbeiflug der Uranussonde würde Jupiter 24 Radien Abstand passiert, 1.714.000 km von der Oberfläche entfernt das ist 97.000 km innerhalb der Umlaufbahn von Kallisto, die 2031 Mission zu Neptun passiert Jupiter in 5,39 Radien Abstand also 285.000 km von der Oberfläche entfernt. Das ist 36.000 km außerhalb von Ios Umlaufbahn. Diese beiden Monde könnten die Sonden – sofern sie in der richtigen Position stehen nahe passieren. Die Neptun-Mission kann auch Ganymed und Europa erfassen, die Uranusmission nähert sich dazu nicht stark genug Jupiter.

Bei meiner theoretischen Mission habe ich mich davon leiten lassen, was heute möglich ist. Das fing mit der Stromversorgung an. Die größten verfügbaren Solararrays sind Ultraflex mit 9 m Durchmesser 10 kW pro Paneel liefern. Vier Stück davon liefern 40 kW, genug um 8 RIT-2X Ionentriebwerke zu betreiben, die ich im spezifischen Impuls leicht auf 38.000 m/s gesenkt habe, um die Mission zu beschleunigen. 400 kg sollen auf die abtrennbare Ionenmodulstufe ohne Tanks und Triebwerke entfallen, vergleichbar einer Cruise Stage wie bei den Marsmissionen der Amerikaner. Den Geschwindigkeitsbedarf habe ich mit 22 km/s abgeschätzt. Eine schwere Sonde wie Galileo die in eine Umlaufbahn einschwenkt ist bei 40 kW Leistung nicht möglich aber immerhin eine Sonde, die so viel wiegt wie Voyager (800 kg). Daraus ergab sich dann folgende Mission:

Es sind also noch 154 kg übrig. Diese Massenreserve kann man nutzen, um den spezifischen Impuls nochmals abzusenken und die Mission so zu beschleunigen, oder 154 kg mehr Nutzlast mitführen, z.B. eine 900 kg schwere Sonde.

Zeitlich gewinnt man gegenüber dem Nature Plan nichts auch der braucht 5 Jahre zu Jupiter, es dauert sogar noch 10 Monate länger als die Swing-By Vorgehensweise. Aber es gibt einen Vorteil, den man nutzen könnte. Das Transfermodul müsste, wenn man Jupiter erreicht, durchaus noch viel elektrische Leistung haben, etwa 1,4 kWh, wenn es keine Verluste gibt, mit Verlusten vielleicht noch 1 kwh. Das ist viel mehr als die letzten Raumsonden zur Verfügung hatten. Meine Idee: dieses Modul reicht vielleicht nicht zu einer vollwertigen Raumsonde, aber zu einer einfachen. Die Ionentransferstufe könnte man bereits einige Monate vor der Ankunft an Jupiter von der Raumsonde trennen und dann auf eine andere Bahn lenken. Wir haben da in etwa dieselbe Situation wie bei Galileo-Orbiter und Atmosphärensonde. Denkbar sind mehrere Szenarien:

Da im Prinzip diese zweite Sondenur ein bis zwei Tage lang aktiv ist, würde man die Daten an die Hauptsonde übermitteln, die sie zwischenspeichert. Das macht die Ausrichtung und Lageregelung einfacher, da man so nur eine Mittelgewinnantenne mit grober Ausrichtung benötigt und die Instrumente festmontiert werden können. Viele Drehungen gibt es so nicht. Bei der kurzen Missionsdauer könnte die Lageregelung komplett mit Druckgas erfolgen. Bei den Missionstypen, bei denen die Sonde nicht verloren geht, ist auch eine ausrichtbare HGA denkbar, dann speichert die Sonde alle Daten zwischen, bis sie Jupiter passiert hat, dreht sich zur Hauptsonde und überträgt an diese die Daten. Dieser Zusatznutzen durch die Transferstufe wäre ein Ausgleich gegenüber den höheren Kosten durch das Modul, auf der anderen Seite benötigt man aber auch mindestens eine Sojus um 800 kg auf Fluchtgeschwindigkeit zu bringen, die Masse die ich für die Raumsonde angesetzt habe.

Bei der Raumsonde hätten wir im Prinzip die gleiche Vorgehensweise wie bei Voyager, das heißt, es gibt etwa vier Monate lang Daten, aber den größten Teil der Zeit nur wenige. Nur etwa en Fünftel dieser Zeit ist der Planet formatfüllend, die Monde sind sogar nur einige Stunden lang groß genug für brauchbare Aufnahmen und Spektren. Gegenüber Voyager hat sich aber einiges geändert. Neben technischen Verbesserungen wie höherer Datenrate, effizienteren RTG, stärkeren Senden und Senden im höherfrequenten K-Band, gibt es zwei wesentliche Verbesserungen:

Datenverarbeitung: Voyager konnte maximal 100 Bilder auf einem Bandrekorder ablegen. Das war gedacht für Zeiten ohne Funkverbindung, aber auch wenn ein Mond passiert wurde, da die Datenrate nach Jupiter immer kleiner als die Schreibgeschwindigkeit auf den Bandrekorder war. Heute ist es kein Problem sehr große Datenmengen abzulegen auf diese schnell und wahlfrei zuzugreifen. Schon New Horizons, die 2006 startete hatte einen Speicher von 16 GByte an Bord, selbst das entspräche rund 20.000 Bildern von Voyager, die bei den beiden Planeten aber nur etwa 9.000 bzw. 6.000 Aufnahmen machte. Das bedeutet man könnte die kurze Zeit in der Uranus nicht nur ein kleiner Fleck auf einer Aufnahme ist, viel besser nutzen, etliche Aufnahmen, Spektren und andere Messdaten gewinnen und in den Monaten nach dem Vorbeiflug übertragen.

Instrumente: auch hier gab es technische Verbesserungen wie CCD-Sensoren anstatt Videocons. Daneben aber gab es Neuentwicklungen die Dinge möglich waren die bei Voyager noch Utopie waren. Spektrometer können heute nicht nur das Spektrum eines Punktes aufnehmen, sondern einer ganzen Zeile. Wird die bewegt, so bekommt man eine Abtastung eines Körpers und von jedem Punkt der Oberfläche ein Spektrum. Daraus kann man Falschfarbenaufnahmen anfertigen. Farben können z.B. den Absorptionsmaxima von wichtigen Molekülen in den Atmosphären wie Methan, Ammoniak oder Schwefelwasserstoff zugeordnet werden und man sieht dann farbkodiert deren Vorkommen. Selbst Instrumente die Magnetfelder bestimmen heute nicht nur die Stärke an einem Ort, sondern können auch über eine Rotation der Instrumente ein Bild von der räumlichen Verteilung anfertigen.

Spektrometer sind zudem empfindlicher und viel feiner auflösend als noch zu Voyagers Zeiten.

Besonders reizvoll ist es natürlich, das zwei Sonden innerhalb kurzer Zeit auf den Weg gebracht werden. Leider sind solche Missionen ja in den USA sehr teuer geworden – Galileo begann mal als preiswerter Nachfolger von Voyager (sollte weniger als diese kosten) und endete sehr teuer, wobei aber auch die Politik und der Ausfall des Space Shuttles für drei Jahre ihre Ursache hatten. Cassini und Europa Clipper wurden aber auch sehr teuer und sind beides Projekte mit mehreren Milliarden Kosten.

Auf der anderen Seite lag New Horizons inklusive Start bei rund 700 Millionen Dollar, eine klassische Vorbeiflugsonde, und warum sollte so was heute nicht auch möglich sein? Ich vermute man wird aber lieber 2 Milliarden in einen weiteren Marsrover ausgeben.

Beim Plan mit Swing-Bys könnte m,an eine deutlich schwerere Sonde auf den Weg bringen, mit der kleinsten Atlas 401 etwa 2,7 t, wenn man die bis dahin verfügbaren schweren Träger nimmt, noch mehr. Bei dem kleinen dV von < 1 km/s zur Fluchtgeschwindigkeit könnte man mit etwa 1,1 km/s (1000 km Bahn) bis 1,5 km Bahn (außerhalb der Hauptringe) eine elliptische Umlaufbahn mit einigen Monaten Umlaufszeit erreichen. Das würde moderate Treibstoffvorräte an Bord erfordern. Bei Neptun geht dies wegen der hohen Vorbeifluggeschwindigkeit nicht.

Als Nebeneffekt hätte man wenn man diese Ionenantriebsstufe entwickeln würde auch ein Vehikel für den Erdorbit und andere Missionen. Dann lässt man einfach einige Treibstofftanks weg und die Nutzlast ist schwerer – die Vega C sollte alleine 800 kg mehr in eine Erdumlaufbahn bringen können. Zusammen mit Treibstoff für ein kleineres dV sollte sie so 2,3 t vom LEO in den GEO bringen können oder etwa 2 t auf Fluchtgeschwindigkeit. Ich denke als amerikanisch-europäisches Gemeinschaftsunternehmen wäre das umsetzbar: Europa baut die Ionenantriebsstufe und finanziert den Start. Die NASA baut die Sonde und die Instuemnte teilt man auf. Die internationale Kooperation wäre auch ein gewisser Schutz gegen das Einstellen, wenn mal wieder ein bemanntes Raumfahrtprogramm zu teuer wird.

7.6.2020: Projekt Parallax

Das für die nächste Runde der Discovery-Missionen interessanteste Projekt ist wohl Parallax. Während die anderen Missionen mehr oder weniger die gleichen Ziele (zumindest nach dem Typ, wenngleich auch einige Entwürfe bisher unerforschte Asteroiden unter die Lupe nehmen wollen) haben wir hier einen der seltenen Fälle von einer „neuen“ Mission.

Parallax soll erstmals grobe Karten der Sternoberflächen unserer näheren Umgebung liefern, eventuell auch welche von größeren Planeten, die sie umkreisen, in jedem Falle aber eine bessere Charakterisierung dieser Sterne liefern.

Wenn man Sterne mit einem Teleskop beobachtet, so erscheinen sie auch in den größten Teleskopen als ein Punkt. Der Grund sind die enormen Distanzen. Alpha Centauri ist der nächste Stern, er ist 4,3 Lichtjahre von uns entfernt und gehört wie die Sonne zur Spektralklasse G. Er ist etwas größer als die Sonne und hat den 1,22-fachen Durchmesser der Sonne. Da die Sonne ~ 1,4 Millionen km Durchmesser hat, ein Lichtjahr aber einer Strecke von 9.460.800 Mill. Km entspricht, beträgt sein Durchmesser für uns etwa 0,0068 Bogensekunden (6,8 mas Milli Angle Second). Das Hubble Weltraumteleskop kann maximal 0,05 Bogensekunden große Details auflösen. Mit adaptiver Optik ausgestattete irdische Teleskope würden eine noch höhere Auflösung erreichen, doch damit er zumindest 2 x 2 Pixel groß wäre, benötigt man ein Teleskop von etwa 34 m Durchmesser.

Es gibt trotzdem einige grobe Karten von Sternen. Das sind ausnahmslos Riesensterne, wie rote Riesen die im Vergleich zur Sonne enorm groß sind. So gibt es einige grobe Aufnahmen von Beteigeuze einem roten Riesen, der 640 Lichtjahre entfernt ist. Er ist so groß, dass er einen Durchmesser von 0,05 Bogensekunden hat, also siebenmal größer als Alpha Centauri. Ein 10-m-Teleskop wie das VLT hat eine theoretische Auflösung von 0,012 Bogensekunden, kann ihn also in 4 x 4 Pixeln auflösen und so auch schon Bilder aufgenommen. Doch selbst dazu sind etliche Tricks nötig, z.B. die Speckle-Interferometrie bei der man zahlreiche kurzzeitbelichtete Aufnahmen addiert, um die Turbulenz der Erdatmosphäre einzufrieren und so auszuschalten.

Parallax soll nun Sternoberflächen in nie bekannter Genauigkeit erfassen. Die Mission nutzt dazu die gleiche Technik, die auch Missionen für die Planetensuche bei anderen Sternen nutzen. Auch diese sind wie Details der Oberfläche eigentlich zu klein, um direkt erfasst zu werden. Sie werden bestimmt, indem man die Position und Helligkeit von Sternen vermisst. Durch ihre Gravitationskraft sorgen Planeten für eine kleine Verschiebung der Position und Variationen der Helligkeit, wenn sie vor dem Stern vorbeiziehen. Und die Helligkeit und Positionen von Sternen kann man sehr präzise vermessen.

Parallax soll mit einem mittelgroßen Teleskop, vorgeschlagen werden 20 bis 24 Zoll Öffnung (50 – 60 cm) Sterne über eine Rotationsperiode beobachten. Das Licht wird von mehreren Detektoren erfasst, zum einen hochempfindliche Detektoren für die Helligkeit im UV, sichtbaren und nahen Infrarot, zum anderen wird ein hochauflösendes Spektrum zwischen dem extremen UV und sichtbaren Wellenbereich aufgenommen.

Diese Informationen informieren nicht nur über die Helligkeit, sondern auch Oberflächentemperatur und das Vorhandensein und die Menge bestimmter ionisierter Elemente in der Korona. Bei der Sonne ist die Zusammensetzung der Korona hoch variabel und hängt mit der Sonnenaktivität und Masseausbrüchen auf der sonne zusammen. Sie wird daher derzeit von der Parker Solar Probe erforscht. Passiert ein Planet einen Stern so kann als Nebeneffekt durch die Helligkeitsveränderung auch seine Oberfläche grob kartiert werden, zumindest aber die Mengenelemente seiner Atmosphäre über das Spektrum erfasst werden.

Bis hierher benötigt man jedoch keine Raumsonde für diese Mission. Das wäre auch von einem Satelliten durchführbar, nur von der Erdoberfläche aus wegen der variierenden Dichte der Atmosphäre durch Turbulenzen und damit der schwankenden Lichtabschwächung nicht. Ist die Turbulenz besonders stark, so kann man das auch mit bloßem Auge als Funkeln der Sterne erkennen. Bei einer Satellitenmission würde sich die Helligkeit verändern, weil der Stern rotiert und so ein hellerer Bereich langsam Richtung Rand wandert und von der Seite gesehen wird. Doch so sind nur grobe Karten möglich. Parallax soll eine viel höhere Auflösung erreichen, indem zwei Raumsonden simultan einen Stern beobachten und die Messdaten mit einem präzisen Zeitstempel versehen werden. Dazu haben beide Raumsonden Atomuhren an Bord. Die beiden Sonden sehen aber den Stern aus leicht unterschiedlichem Winkel, je höher dieser Winkel ist, desto kleiner sind die Details, die rekonstruiert werden können. Bei der Bodenstation werden die Messdaten beider Sonden zu einem Modell vereinigt und die Oberfläche rekonstruiert. Die Vorgehensweise ist die gleiche wie bei der Interferometrie von Radioteleskopen. Bei diesen hat man schon durch Zusammenschalten von Radioteleskopen auf der ganzen Erde Daten gewonnen, die so hoch auflösend sind wie gewonnen mit ein Radioteleskop mit dem Druckmesser der Erde.

Beide Sonden können getrennt oder zusammen gestartet werden, abhängig davon, welche Trägerrakete gewählt wird. Beide Sonden werden zuerst an Erde und Venus Schwung holen. Bei dem Vorschlag mit gemeinsamen Start im Mai 2031 würde eine Sonde einen Venus- und Erdvorbeiflug durchführen, den Jupiter im März 2034 passieren. Die zweite würde einen zweiten Erdvorbeiflug durchführen und den Jupiter erst im Juni 2036 passieren. Durch die Bewegung Jupiters in den zwei Jahren und eine unterschiedliche Ablenkung soll zwischen die Bahnen ein Winkel von 80 bis 90 Grad resultieren. Die Sonden entfernen sich so immer weiter voneinander. Die eigentliche Vermessungsmission beginnt nach dem Jupitervorbeiflug. Da der Abstand immer weiter zunimmt, wird man zuerst nahe Sterne vermessen, da die Auflösung mit steigender Entfernung zunimmt, aber auch der scheinbare Durchmesser der Sterne mit steigender Entfernung abnimmt. Erhofft wird eine aktive Messdauer über mindestens 5 Jahren bei 12 Jahren Missionsdauer.

Zwei kleine Nebeneffekte der Mission sind das man von den beobachteten Sternen so automatisch auch die Entfernung mit derselben Genauigkeit kennt wie die Auflösung der Oberfläche (anfangs 1 mas also 1 /1000 Bogensekunde, durch die Entfernung steigend, am Ende der Mission etwa 0,3 mas). Das zweite ist, das die Sonde sich laufend von der Erde entfernt und sehr lange betrieben werden kann. Im Gewichts- und Strombudget sind daher vier weitere Instrumente vorgesehen die Plasmawellen, elektrische Felder, energiereiche Teilchen und das Magnetfeld erfassen. Sie können die Voyagermessungen ergänzen, New Horizons hat nur einen einfachen Teilchendetektor und leistet dies nicht in dem Maße.

Leider hat man von dem Vorschlag schon das Interessanteste gestrichen, damit er im Budget einer Discoverymission passt. Geplant war ursprünglich auf eine Hochgewinnantenne zu verzichten und das Hauptteleskop zusammen mit einem Laserterminal zum Übertragen der Daten und Empfangen von Daten zu nutzen. Dafür hätte man regelmäßig die Messkampagnen unterbrochen bzw. die Daten zwischengespeichert und nach einer Messkampagne vor dem Ausrichten auf das nächste Objekt übertragen. Doch das erschien zu ambitioniert und da die Sonde keine Bilder macht und Spektren und Lichtmessungen nur kleine Datenmengen erzeugen wird es eine herkömmliche Konstruktion.

Mal sehen, was draus wird. Noch ist es nur ein Proposal. Derzeit läuft noch die Entscheidung über vier Kandidaten der 2020 er Runde. Mit einem der Kandidaten, nämlich TRIDENT, das auch am JPL entwickelt wird gibt es eine Zusammenarbeit. Beides sind Sonden ins äußere Sonnensystem. Zahlreiche Subsysteme wie Stromversorgung, Kommunikation und Avionik können übernommen werden. Wird TRIDENT bei der derzeitigen Runde selektiert, dann könnten so die Kosten für PARALAX sinken. Allerdings ist die derzeitige Runde stark besetzt. Alle vier Vorschläge sind anspruchsvoll und Neuland für die NASA, anders als noch eine Mission zu Mars oder Asteroiden: DAVINCI+ beisteht aus einem Orbiter/Vorbeiflugsonde und einer Atmosphärenkapsel. Hauptzweck ist die Zusammensetzung der Atmosphäre zu untersuchen. Das „+“ bezieht sich darauf, dass man gegenüber einem früheren Vorschlag Kameras in Orbiter und Abstiegssonde hinzunahm. DAVINCI+ punktet vor allem durch die Kosten. Man wird Instrumente verwenden, die schon auf anderen Raumsonden wie Curiosity oder OSIRS-Rex zum Einsatz kommen. Schlechtere Chancen hat IVO (io Vulkanic Explorer). Die Mission wurde schon 2009 zum ersten Mal konzipiert und bisher nicht selektiert. Auf der anderen Seite würde sie gut Europa Clipper ergänzen die niemals Io erreichen wird. Trident wurde schon erwähnt, eine Vorbeiflugsonde an Neptuns Mond Triton. Vergleichen mit Ivo ist die Sonde kleiner und weniger komplex, muss auch nicht in Jupiters Strahlengürtel arbeiten. Auf der anderen Seite hat sie eine längere Missionszeit, bis sie das Ziel erreicht – 12 Jahre, was sich auch in den Kosten niederschlägt. Gute Chancen hat auch VERITAS. Das ist ein Radarorbiter für die Venus. Er soll die Venus mit 30 m globaler Auflösung und einzelne Regionen mit niedrigeren Auflösung von 15 m erfassen. Auch Davinci ist nicht neu und wurde schon bei der letzten Ausschreibung als Vorschlag eingebracht, unterlag aber Psyche und Lucy.

11.6.2020: Der „grüne“ Wasserstoff

Gestern hat die Koalition wieder mal ein 7 Milliarden Euro teures Programm zur Förderung von alternativen, regenerativen Energien beschlossen. Ziel diesmal: „grünen“ Wasserstoff zu fördern. Fangen wir mal mit dem einfachsten an, warum „grüner Wasserstoff“?

Nun damit ist nicht die Eigenfarbe des Wasserstoffs gemeint. Wasserstoff ist sowohl als Gas wie auch Flüssigkeit farblos. Es ist die Gewinnung „Grün“ soll suggerieren, das er ökologisch gewonnen wird, also aus regenerativen Quellen. Den Wasserstoff, den man heute einsetzt, egal ob als Raketentreibstoff, für Wasserstoffautos oder als Reduktionsmittel in der chemischen Industrie, wird aus Erdgas (Methan) gewonnen. Mithin stammt auch er aus einem fossilen Kohlenstoffreservoir, auch wenn er selbst beim Verbrennen kein Kohlendioxid erzeugt, so wird doch das Methan teilweise oder ganz oxidiert um Wasserstoff zu gewinnen und wird letztendlich so auch Kohlendioxid erzeugt. Das gilt auch für Brennstoffzellen, die als Heizung vorgeschlagen werden und Methan nutzen.

„Grüner“ Wasserstoff (ab jetzt lasse ich das „grün“ weg) wird durch die Elektrolyse von Wasser gewonnen. Da haben wir schon die ersten beiden Nachteile dieses Wasserstoffs: Die Elektrolyse hat einen Wirkungsgrad von 40 bis 70 % und benötigt elektrischen Strom, dessen Herstellung relativ teuer ist. 2 Milliarden des Paketes gehen daher auch darauf, große Pilotanlagen in Nordafrika wie Marokko zu bauen, mit denen der Wasserstoff direkt vor Ort gewonnen werden kann. Das erspart wenigstens die Kosten und den Aufwand fürs Netz. Trotz alledem – Strom aus Windkraft oder Fotovoltaik ist immer noch teurer als Strom aus fossilen Quellen, selbst wenn man ihn heute für 7 ct/kWh erzeugen kann. Dazu noch ein Wirkungsgrad von 40 bis 70 %, da würde die Energie die z.B. vergleichbar der von 1 l Heizöl (38 MJ) etwa 1,05 bis 1,84 € alleine in der Produktion kosten. Doch damit ist es nicht getan. Wasserstoff muss auch transportiert werden. Versuche ihn dauerhaft flüssig zu halten gab es, aber der Energieverbrauch ist, weil er nur bei -253°C und nur in einem engen Intervall von 6 °C flüssig ist sehr hoch. Daher wird er heute als Gas transportiert, dann eben unter hohem Druck. Doch das verbraucht auch Energie. Anders als Erdgas kann man Wasserstoff nicht durch Druck bei „normalen“ Temperaturen verflüssigen, und so als Flüssiggas transportieren und selbst als Gas hat er bei Atommasse 2 nur ein Achtel der Dichte von Methan. In einen Behälter, der für einen bestimmten Druck ausgelegt ist, passt also nur ein Achtel der Menge. Würde man den Wasserstoff lokal erzeugen und ins Leitungsnetz für Erdgas einspeisen so würde dieser Anteil der Transportkosten wegfallen. Für Schiffe habe ich den Anteil nicht gefunden, aber da Wasserstoff ja als Treibstoff für Autos angedacht wird, für den Transport per Lastwagen und da fallen 20 % des Energiegehaltes als Transportkosten an. Im Auto schließlich nutzt man die Umkehrung der Elektrolyse, die Brennstoffzelle um Strom zu gewinnen, der dann mit Elektromotoren die Räder antreibt auch diese Technologie hat einen Wirkungsgrad von 50 bis 60 %, das heißt, in Bewegungsenergie wird noch ein Viertel bis ein Drittel der Primärenergie umgesetzt, die man in die Wasserstoffgewinnung hineingesteckt hat – das ist in etwa die Bilanz eines Verbrennnermotors, nur ist der Treibstoff schon in der Herstellung viel teurer: beim Benzin entfallen alleine 65,47ct auf Mineralölsteuer, bei Diesel 47,04 ct, dazu kommt noch die Mehrwertsteuer, rechnet man die ab, so verbleiben für Spritgewinnung und Gewinne bei einem derzeitigen Benzinpreis von 1,07 €/l nur noch knapp 25 ct. Wasserstoff wäre aber selbst im günstigsten Fall viermal teurer bei der Produktion und ob der Staat dann auf alle Steuern verzichtet?

Etwas günstiger sieht es aus wenn man den Wasserstoff verbrennt. Die Wärmeproduktion ist ja ein Thema, das bei der Diskussion um Kohlendioxidemissionen etwas herabfällt. Man kann Wasserstoff direkt verbrennen, als Ersatz für Erdgas. Dann würden keine Transportkosten für Lastwagen anfallen, ich nehme an Schiffe wären günstiger und es gibt wie beim Erdgas natürlich noch die Möglichkeit Pipelines zu verlegen – länger als wie für Nordstream 2 ist die Distanz zu Nordafrika auch nicht. Dann hätte man nur den Verlust bei der Gewinnung, trotzdem einen recht teuren Verbrennungsträger. In einem Fernsehbericht wurde auch erwähnt, das man mit Wasserstoff die Kohle bei der Eisengewinnung ersetzen will. Da horchte ich als Chemiker auf. Klar prinzipiell ist Wasserstoff ein Reduktionsmittel wie Kohlenstoff. Aber es gibt doch deutliche Unterschiede. Die liegen schon beim Aggregatzustand. Die Kohle ist fest, Wasserstoff ist gasförmig, man benötigt also ein geschlossenes System, bei dem man den Wasserstoff oben im Hochturm wieder abfängt, Wasserdampf als Reaktionsproduktion auskondensiert und wieder einsetzt. Kohle wird zudem verbrannt und ihre Verbrennungstemperatur hält die Reaktion am Laufen, bei Wasserstoff muss man extern heizen. Während die Endprodukte der Verbrennung von Kohle, Kohlendioxid und Kohlenmonoxid nur wenig mit dem Eisen reagieren, tut dies das Wasser sehr wohl. Daneben kann sich Wasserstoff im Eisen lösen, ähnlich wie dies der Kohlenstoff tut. Das ist heute schon ein Problem: Sie führt zur Versprödung von Metallen und hat sogar einen eigenen Namen „Wasserstoffversprödung“. Sie tritt beim Schweißen mit Wasserstoff sowie natürlich beim direkten Kontakt auf wie bei Rohrleitungen. Zwar ist viel Kohlenstoff in Eisen auch nicht erwünscht – Stahl ist kohlenstoffarm, aber er ist bei Weitem nicht so störend, wie der Wasserstoff der nur Nachteile hat (kohlenstofffreies Eisen ist unpraktisch weich, stark kohlenstoffhaltiges Eisen sehr hart, aber unelastisch wie Gusseisen, so strebt man für ein Metall das zwar hart aber in Grenzen auch Belastungen nachgibt man denke an biegsame Degen oder Karosserien, die zwar eine Beule bekommen, aber nicht brechen, kleine Kohlenstoffgehalt im Stahl an). Bislang gibt es nur eine experimentelle Hütte, die direkt durch Strom aus Wasserkraft gewonnenen Wasserstoff in Schweden einsetzt, das geht, weil die örtlichen Eisenerze besonders sauerstoffarm sind. Ansonsten nutzt man ein Mischverfahren, bei dem man Kohlenmonoxid als zusätzliches Reduktionsmittel zum Wasserstoff hinzunimmt.

Ich sehe die Zukunft daher eher in der Methanisierung. Dabei wird eine Kohlenstoffquelle, das kann auch Kohlendioxid sein, mit Wasserstoff zu Methan reduziert, man kann den Prozess aber auch weiterführen und höhere Kohlenwasserstoffe produzieren. Das bekannteste Verfahren, die Fischer-Tropsch Synthese wurde schon im Zweiten Weltkrieg von Deutschland zur Produktion von Kraftstoffen fürs Militär aus heimsicher Kohle eingesetzt, später lange Zeit von Südafrika um das Embargo zu umgehen. Diese Verfahren werden schon großindustriell beherrscht und erreichen bei großen Anlagen bis zu 80 % Wirkungsgrad, bezogen auf den Energiegehalt des Wasserstoffs.

Methan oder höhere Kohlenwasserstoffe haben deutliche Vorteile:

Trotz alledem kann Methan eine regenerative Energiequelle sein, wenn die Kohlenstoffquelle Kohlendioxid ist. Das müsste dann allerdings aus der Atmosphäre stammen und auch erst hoch konzentriert werden. Die Idee spukt herum, eine Wasserstoffgewinnungsanlage neben ein Kohlekraftwerk zu setzen und dann Folgendes zu machen:

Man hat so aber nur die Kohle zu Methan „veredelt“ - sprich Methan hat fast den doppelten Brennwert von Steinkohle durch den energiereichen Wasserstoff im Molekül, aber nach wie vor ist die Kohle ein fossiler Brennstoff.

Für mich ist dieses Klimapaket ein weiterer Ausdruck wie verhaftet die heutige Regierung den bestehenden Strukturen ist. Denn es fokussiert sich ja auf den Verkehr. Ich betrachte die Sache als Naturwissenschaftler, und aus wissenschaftlicher Sicht ist der heutige Individualverkehr eine extrem schlechte Problemlösung. Man bewegt 1 – 2 Tonnen Masse um 100 bis 200 kg Nutzlast (bei 1-2 Personen pro Wagen) zu befördern. Meine Lösung wäre es das Geld, das man der Automobilindustrie gibt oder in solche Klimapakete steckt in einen Ausbau des öffentlichen Verkehrs steckt, aber auch den Fahrradverkehr sicherer und besser zu machen. Selbst den Transport von Gütern könnte man wieder für den Großteil der Strecke auf die Bahn verlagern. Wer trotzdem individuell reisen will, für den würde bei attraktiven Angeboten eines öffentlichen Netzes für den Fernverkehr auch ein Elektrofahrzeug mit einer geringen Reichweite reichen.

Für den Energieverbrauch für Wärmeerzeugung und Prozesse braucht man sicherlich Speicher. Schlussendlich ist der unterschiedlich – die meisten Fabriken arbeiten nachts und an Samstagen / Feiertagen nicht, der Heizbedarf ist jahreszeitlich schwankend. Allerdings wird bei einem wirtschaftlichen Strommix der meiste Strom (aus regenerativen Quellen) von der Windkraft kommen, einfach weil das billiger als Fotovoltaik ist. Gerade Windkraft gibt es aber im Weiter, wenn man Energie fürs Heizen braucht, und die Tage kürzer sind, (kleinerer Ertrag durch die Fotovoltaik) aber mehr. Wasserstoff könnte in dem Konzept durchaus sinnvoll sein, aber als eine Nischenlösung als Kurzzeitspeicher zum Überbrücken der Überproduktion, wenn die Nachfrage sinkt (nachts, samstags, sonntags) oder gerade viel Wind herrscht. Man wird dann eine Strommenge in Wasserstoff umwandeln die, der gesamten Strom über einige Stunde oder eines Teils davon über einige Tage entspricht, aber es wird nicht so viel sein wie man für Heizung und Verkehr brauchen würde, wenn man Wasserstoff einsetzt.

Das Verhalten der Politik ist verständlich, aber es ist nicht zielführend. Verständlich, weil sie sich nicht ohne Hintergedanken Ziele für 2040 setzt. Wären es Ziele für 2025, dann müsste man jetzt was tun. Politik ist heute nur noch an kurzzeitigen Erfolgen interessiert und verspielt so Optionen für die Zukunft. Nehmen wir nur mal die Automobilindustrie. Die Zahl der Beschäftigten in dieser Industrie legitimiert fast alle Maßnahmen. So 2009 die Abwrackprämie, die weitestgehend unwirksam war – nur wurde ein Kauf vorgezogen und die meisten Prämien strichen ausländische Marken ein. Dann die Verschonung beim Dieselskandal, weil ja immer gesagt wurde, wenn man bei uns ebenso wie in den USA Schaden zahlen würde, die Industrie pleitegehen würde und nun eine erneute Prämie, zu der schon existenten Prämie für Elektroautos obendrauf. Nur hat die Automobilindustrie in Deutschland den Trend verschlafen und hat kaum Elektroautos, die sie verkaufen könnte. Es wird also eine Industrie gefördert, die den Verbraucher betrügt (Dieselgate), ihre Produkte nicht ökologisch weiterentwickelt (siehe E-Autos) und bei jeder Wirtschaftskrise eine staatliche Hilfe braucht. Alleine das letztere Argument wäre für einen verantwortlichen Politiker ein Alarmsignal. Das erinnert mich an den Spruch „Man wirft schlechtem Geld kein gutes hinterher“, sprich, wenn ein Unternehmen unwirtschaftlich arbeitet und Verluste macht, dann stützt man es nicht noch weiter. Steckt das Geld woanders hin. Die Produktion und Wartung von Anlagen für Windkraft und Fotovoltaik bietet auch Arbeitsplätze. Bei einem öffentlichen Verkehr, der so attraktiv ist, das er das Auto ersetzt (wir reden dann von einem erheblichen Ausbau des Netzes und auch attraktiver Taktung nicht nur in Spitzenzeiten) benötigt man unzählige Beschäftigte als Fahrer, Schaffner, für die Wartung. Oder steckt es in andere Industrien – jetzt in Coronazeiten leidet auch das Gaststättengewerbe, dort sind sogar mehr Personen beschäftigt als in der Automobilindustrie, wie wäre es mit Gutscheinen fürs Essen oder kompletten Wegfall der Mehrwertsteuer für dieses Gewerbe (würde das Gericht um 19 % verbilligen).

14.6.2020: Die Lösung für ein überflüssiges Problem: Die Qualität der Triton Kartierung

Eine der Kandidaten für die aktuelle Runde der Discovery-Missionen ist Trident. Die Sonde soll 2026 starten und nach zwei Venus- und Erdvorbeiflügen 2032 in naher Distanz (unter 89.000 km Distanz) Jupiter passieren, der sie dadurch stark beschleunigt, sodass sie 2038 Neptun erreicht – Voyager 2 brauchte nicht 6 sondern 10 Jahre von Jupiter zu Neptun, allerdings mit zwei kleinen Abstechern zu Saturn und Uranus.

Ich möchte heute mal diskutieren, wie gut die Kartierung von Triton sein könnte und auch die Einflussfaktoren nennen.

Einflussfaktor 1: Minimaldistanz

Die Minimaldistanz kann in gewissen Grenzen frei festgelegt werden. Bei Voyager 2 war Triton nur ein Ziel. Mit seiner Suite von 12 Instrumenten war Neptun der Hauptgegenstand der Untersuchungen. Bei Triton konnten von den 12 Instrumenten nur ein Teil eingesetzt werden. Wenige Daten würde es bei Triton von Instrumenten für Wellen, Magnetfelder und geladene Teilchen geben. Da aber die Neptunvorbeiflugdistanz bei Voyager den Abstand bei Triton festlegte, waren die Wissenschaftler die diese Instrumente betreuten dafür möglichst auf Abstand zu gehen, damit die Sonde weniger stark beschleunigt wird und sie so mehr Messzeit bei Neptun hätten. Die Teams, die sich Bilder und Spektren von Triton erhofften, waren dagegen für eine geringe Minimaldistanz. Hätte Voyager 2 Neptun in 1.000 bis 1.300 km Distanz passiert, so wäre sie in 8.000 bis 10.000 km Distanz an Triton vorbeigeflogen. Jeder Kilometer mehr vergrößerte die Distanz, da Triton nicht in der Äquatorebene Neptun umkreist, sondern 27 Grad zum Äquator geneigt und noch dazu retrograd, also gegen die Rotationsrichtung von Neptun. Neptun muss die Sonde also so umlenken, dass sie in Tritons Distanz (327.000 km) 27 Grad über oder unter dem Äquator ist. Das geht um so besser je näher man sich Neptun nähert. Voyager passierte schließlich Neptun in 4.850 km Distanz, daraus resultierte eine Distanz von 38.500 km von Triton.

Logischerweise bekommt man immer höher aufgelöste Aufnahmen, je näher man sich Triton nähert. Allerdings ist dann auch das Blickfeld der Kamera klein und sie bildet ein kleineres Areal ab. Da der Abstand laufend sinkt, bzw. nach dem Vorbeiflug wieder ansteigt, ist die Zahl der Bilder bei einer niedrigen Distanz klein und sie bilden nur eine kleine Fläche ab.

Einflussfaktor 2: Datenrate

Als Voyager 2 Neptun passierte, war die Technik der Datenverarbeitung noch eine andere. Die Sonde hatte als Massenspeicher einen Bandrekorder. Der war schon nicht sehr schnell – der Bandrekorder der zwei Jahre zuvor gestarteten Viking Sonde hatte eine Schreibrate von 4,48 Mbit/s, Voyagers Rekorder nur eine von 0,1152 Mbit/s. Das Abspeichern eines Bildes dauerte 48 Sekunden, in der die Sonde (geschätzt) 624 km zurücklegte. Eine sehr niedrige Vorbeiflugdistanz macht daher auch nur bedingt Sinn, denn sie bedeutet nur wenige zusätzliche Bilder. Würde Voyager nur Bilder anfertigen und keine anderen Messdaten gewinnen, so bedeuten die 30.000 km Distanz zwischen minimal möglicher Passage in 8.000 Abstand und der Passage in 38.500 km Distanz nur rund 50 weitere Bilder.

Hier hat sich viel geändert. Raumsonden haben heute einen Massenspeicher aus Flashbausteinen wie in einer SSD. Solche Speicher erreichen Schreibraten von 500 MByte/s. Die vorgeschlagene Jupitersonde IVO wird Daten mit 240 MByte/s aufzeichnen. Begrenzend für das Aufnehmen von Bildern sind daher andere Faktoren.

Einflussfaktor 3: Belichtungszeit, Auslesezeit und Schwenkzeit

Die Belichtungszeit ist ein wesentlicher Zeitfaktor. Neptun ist fast 30-mal weiter von der Sonne entfernt als die Erde. Er erhält nur 1/900 des Lichts, das die Erde erhält. Daher wird die Belichtungszeit viel länger sein. New Horizons Kamera hatte beim etwas weiter entfernten Pluto eine Belichtungszeit von 1/5 s. Dabei hatte sie für irdische Maßstäbe große Pixel: 13 µm im Quadrat (meine 18 MP Spiegelreflexkamera hat 4,5 µm große Pixel, Kameras in Smartphones typisch 1 µm große Pixel). Die Belichtungszeit wird ein wesentlicher Zeitfaktor sein, denn die Auslesezeit des Chips war bei New Horizons mit 13 ms viel kürzer. Da die Belichtungszeit für den ganzen Chip gilt, ist es sinnvoll möglichst viele Pixels auf dem Chip unterzubringen. Dann allerdings hat man, wenn die Größe jedes Pixels feststeht, da man die Belichtungszeit auch nicht zu hoch haben will, ein Problem mit der Größe des Chips. Ein Teleskop bildet im Fokus einen Kugelschnitt ab. Das heißt je weiter man sich von der optischen Achse entfernt um so verzerrter aber auch unschärfer wird die Abbildung. Wie stark hängt von der Konstruktion des Teleskops ab. Wenn man die Abmessungen eines 35-mm-Kleinbilds als Maßstab nimmt, das erreichen z. B. nicht mal alle Amateurteleskope, die in der Größenordnung wie ein Teleskop einer Raumsonde liegen, dann sind bei 10 bis 13 µm pro Pixel maximal 3.000 bis 4.000 Pixel in einer Line oder 9 bis 16 Mpixel bei einem quadratischen Chip möglich. Bei Zeilensensoren, die nur den mittleren Bereich nutzen, kann die Zeile noch etwas länger sein als bei einem quadratischen Chip, wo die Ecken weiter vom Zentrum entfernt sind. (genauer gesagt um den Faktor Wurzel(2) = 1,41 …).

Der letzte Faktor ist die Schwenkzeit zwischen zwei Aufnahmen. Sie ergibt sich, sobald ein Himmelskörper das Blickfeld ausfüllt. Nun muss man beginnen, Mosaike herzustellen. Zwischen jedem Bild muss sich die Kamera bewegen – z.B. zuerst in der Horizontalen für eine Zeile und dann in der vertikalen für die nächste Zeile. Diese mechanische Bewegung dauert. Voyager verwandte eine in zwei Achsen drehbare Instrumentenplattform, während sich die Ausrichtung der Raumsonde nicht veränderte. Eine solche Plattform muss relativ wenig Gewicht bewegen und man kann dafür Elektromotoren mit Schrittsteuerung nehmen, wie sie auch Teleskope haben. Sie haben keine Start/Stoppzeiten. Die Instrumentenplattform von Voyager hatte eine Spitzendrehrate von 1 Grad/s. Allerdings war die Übertragungsrate der Bilder so langsam, dass diese Geschwindigkeit kein Limit war. Zudem näherte sich Voyager nur wenigen Körpern richtig nah. Für zwei sich überlappende Bilder der Telekamera musste sich die Plattform um 0,3 Grad bewegen, was selbst bei langsamster Rate in 4 s erledigt war, das Auslesen des Bildes dauerte aber 12-mal so lange. Bei einer heutigen Sonde wären die bei 1 Grad/s anfallenden 0,3 s für die Neupositionierung dagegen länger als die Belichtungszeit und viel länger als die Auslesezeit. Demgegenüber erreichen Teleskopsteuerungen bis zu 12 Grad/s. Daher würde man eine schnellere Drehrate bevorzugen.

Heute ist es allerdings gängiger die Instrumente fest an der Raumsonde anzubringen und stattdessen die ganze Raumsonde zu drehen, das geht meist mit Drallrädern die ein Drehmoment induzieren. Gängige Busse für Kleinsatelliten haben eine maximale Drehrate von 1 Grad/s. Anders als bei einer Schrittsteuerung kann man aber die Bewegung des ganzen Satelliten nicht sofort stoppen. Zuerst muss die Drehrate in horizontaler Richtung wieder genullt werden, dann kann man die Sonde kippen (vertikale Drehung), auch das muss man wieder nullen und dann kann man in Gegenrichtung wieder horizontal drehen. Kurz: am Ende jeder Zeile fällt mindestens die vierfache Zeit einer Instrumentenplattform an. Zudem rotiert der Satellit die ganze Zeit, eine Instrumentenplattform bewegt sich nur nach dem Aufnahmen einer Belichtung. Ab einer bestimmten Distanz macht alleine das Drehen während der Belichtung eine Unschärfe, die das Bild unscharf macht.

Doch die Bewegung der ganzen Sonde kann man auch ausnutzen: Wenn der Sensor nur aus wenigen Scanzeilen besteht, dann kann man die Bewegung ausnutzen, um ein Bild aus vielen Spalten aufzubauen. Derartige Sensoren setzt man vor allem in Erdbeobachtungssatelliten oder einen Körper orbitierende Raumsonde ein. In diesem Falle sorgt die Orbitalgeschwindigkeit dafür, dass sich die Szene unter der Kamera bewegt. Bei einer Vorbeiflugsonde ist die Situation komplizierter. In großer Entfernung bewegt sich die Szene kaum. Dann muss die Sonde selbst rotieren. Allerdings muss sie erst die Bewegung stoppen und neu starten, wenn sie einen Streifen quer über die Oberfläche von Triton aufgenommen hat. Das Starten und Stoppen erfolgt bei einem Flächensensor bei jedem Bild. Je breiter der Streifen wird desto größer also dieser Vorteil. Auf der anderen Seite nimmt durch den sinkenden Abstand die Bewegung Tritons relativ zur Kamera immer mehr zu und man kann für eine gegebene Belichtungszeit und Auflösung einen Abstand errechnen, ab dem alleine diese Bewegung zu groß ist, um durch die Drehung der Kamera kompensiert zu werden. Ein weiterer Nachteil ist das derartige Sensoren durch TDI-Sensoren zwar viel kleinere Belichtungszeiten haben als Flächensensoren, aber in der Zeit eben nur eine Spalte oder Zeile belichtet wird und ein flächiger Chip mehrere Tausend Spalten bzw. Zeilen hat. Zudem verändert sich der Abbildungsmaßstab mit der Entfernung.

Für eine Neptunsonde würde ich daher eine Instrumentenplattform wählen. Sie erlaubt mehr Bilder, jedes Bild hat einheitliche Belichtungsbedingungen und ist nicht durch die Bewegung des Satelliten während der Belichtung verschmiert (eine Bewegung der Plattform zur Kompensation der Bewegung der Raumsonde relativ zu Triton kann trotzdem nötig sein).

Hier ein Vergleich der beiden Technologien. Ich habe in beiden Fällen die gleiche Fokusgröße (40 mm) und dieselbe Größe der Detektoren angesetzt und als praktische Beispiele die Detektoren von RCAM (IVO) und LORRI (New Horizons) genommen.

Parameter

Quadratischer CCD Chip

TDI-CCD Sensor

Pixel

4096 x 4096

4096 x 16 (16 Farben)

Pixelgröße

10 µm

10 µm

Belichtungszeit bei Triton

385 ms

3 ms

Belichtungszeit für 4096 x 4096 Aufnahme monochrom

385 ms

12.100 ms

Belichtungszeit für 4096 x 4096 Aufnahmen 16 Farben mit je 0,3 s Filterwechselzeit

11000 ms

12.100 ms

Szene 10 x 10 Grad, 20 % Überlappung monochrom 1 s Start/Stoppzeit zwischen einer Aufnahme f/d = 16,7

1296 s

7032 s

Szene 10 x 10 Grad, 20 % Überlappung monochrom 0,3 s Start/Stoppzeit zwischen einer Aufnahme f/d = 16,7

464 s

6953 s

Minimalabstand bei dem Belichtungszeit x Bewegung > Belichtungszeit x 1 Grad/s

745 km

19.100 km

Der wesentliche Vorteil einer Scanzeile ist, dass man, weil es in der Regel nicht eine Zeile ist,l sondern mehrere, man ohne Problem gleichzeitig Monochrom- und Farbaufnahmen gewinnen kann. Auf der anderen Seite ist eine Scanzeile viel langsamer bezogen auf eine gegebene Fläche als ein flächiger Sensor. Bedingt durch die Langsamkeit wirkt sich die Bewegungsunschärfe auch schon bei einem kleineren Abstand aus. Je schneller die Plattform Drehungen durchführen kann desto größer wird der Vorteil eines Flächensensors.

Die Simulation

Ich bin im folgenden ausgegangen, das Triton in 8.000 km Distanz wie bei Voyager 2 passiert wird. Als Teleskop habe ich ein 30-cm-Teleskop gewählt, etwas größer als LORRI von New Horizons, aber da die Sonde auch schwerer sein wird, ist das im Gewichtsbudget umsetzbar. Es wiegt trotzdem noch weniger als die Narrow- und Wide anlge Kameras von Voyager zusammen und wegen des kleinen Ziels braucht man keine Wide Angle Kamera. Nach dem Dokument scheint die Kamera von TRIDENT dieselbe Auflösung zu haben, nämlich 200 m aus 100.000 km Distanz. Die wesentlichen Daten für die Simulation:

Parameter

Wert

Optikdurchmesser

30 cm

Brennweite:

500 cm

Blende

/16,7

Sensor:

4096 x 4096 Pixel, je 10 µm²

Auflösung:

0,41 Bogensekunden = 100 m aus 50.000 km Distanz

Gewicht (geschätzt, auf Basis der MOC)

19 kg

Gesamtzeit für das Aufnehmen einer Aufnahme

1 s

Minimaldistanz:

8000 km

Überlappung der Bilder

20 %

Vorbeifluggeschwindigkeit

13 km/s

Beleuchtete Phase

90 %

Triton bildfüllend ab

330.300 km Distanz

Und hier das Ergebnis einmal für die minimal mögliche Distanz von Voyager (8000 km) und einmal für die 500 km die für TRIDENT geplant sind:


Parameter

Wert Distanz 8.000 km

Wert Distanz 8.000 km

90 % Phase, Minimalauflösung

41 m aus 20.363 km Distanz

50 aus 19.927 km Distanz

90 % Phase, Auflösung 50 % der Fläche

33 m aus 16.745 km Distanz

32 aus 15.827 km Distanz

Bilder:

951

1495

10 % Phase, Minimalauflösung

22 m aus 11.173 km Distanz

19 m aus 9.587 km Distanz

10 % Phase, Auflösung 50 % der Fläche

20 m aus 9.976 km Distanz

15 m aus 7.513 km Distanz

Bilder:

244

699

Gesamtzahl Bilder

1195

2.194

Die voll beleuchtete Phase ist das Worst Case Szenario (am besten wäre es, wenn es „Halbtriton“ gäbe, dann könnte man bei Hin- und Wegflug je ein Viertel erfassen. Doch auch dieses zeigt, das schon bei verhältnismäßig geringer Distanz alle Aufnahmen gemacht sind. Vergleicht man die Distanz, mit der ab der Triton bildfüllend ist, dann ist klar das man genügend Zeit hat Farbaufnahmen anzufertigen und erst ab etwa 20.000 km Abstand dann die bestmögliche Kartierung in Monochrom durchführt. Die fehlende Fähigkeit Farbaufnahmen ohne Filterwechsel anzufertigen ist so kein Nachteil. Diese entstehen dann eben in größerer Distanz. Wie man sieht, bringt ein extrem naher Vorbeiflug nicht so viel mehr für die globale Kartierung, auch wenn es rund 1.000 Biulder mehr gibt, die dann in geringerer Distanz entstanden, aber eben auch nur kleine Ausschnitte zeigen.

Voyager brauchte 5 Stunden 13 Minuten zwischen dem Passieren von Neptun und Triton, da dies 327.000 km in direkter Linie sind, entsprechen sie ziemlich genau der Distanz ab der Tribon bildfüllend ist. In dieser Zeit könnte die Sonde, wenn sie nichts anderes tut, 18.700 Bilder im 1 Sekunden-Abstand aufnehmen, die 300 GB belegen würden.

Abschätzungen Datenmenge

Wenn ich davon ausgehe, dass man erneut eine Raumsonde in der Voyager Klasse startet, mit demselben Sendesystem, dann wird man ohne Zusammenfassung von Antennen 9,6 KBit/s bei Neptun übertragen können. Allerdings gibt es mittlerweile das Ka-Band. Basierend auf den Erfahrungen des MRO liefert dieses bei gleicher Antenne und gleicher Sendeleistung 2,6-mal mehr Daten, mithin 26 kbit/s. Nimmt man an, dass man wie bei New Horizons sich 6 Monate Zeit mit der Übertragung der Daten lässt, bei 12 Stunden Sendedauer pro Tag und 1/6 Overhead für die Fehlerkorrekturinformationen, dann sind dies Ingesamt 202 GBit an Informationen. JPEG-Bilder mit dem Faktor 5 komprimiert, haben 38 MBit pro Bild, das entspricht also 5.260 Aufnahmen. Das ist deutlich mehr, als die rund 1.200 Aufnahmen, die man für die Kartierung benötigt aber deutlich weniger als man selbst nach der Neptunpassage an Aufnahmen gewinnen kann, man hat also genügend Zeit für andere Beobachtungen, alternativ kann man mehr Zeit für das Schwenken ansetzen als meine 1 s pro Bild.

Zu diesen Daten kämen noch die von Neptun vor dem Vorbeiflug gesendet werden. Neptun hat 64 Tage vor dem Vorbeiflug eine Größe von 200 Pixeln auf einem Bild, ab dem Zeitpunkt begann man bei Voyager mit der Far-Encounter Phase. Dies würde noch einmal ein Drittel der Datenmenge vor dem Vorbeiflug liefern.

Dazu käme der Jupitervorbeiflug. Er wertet die Mission stark auf, weil:

Ich drücke Trident beide Daumen, auch wenn die Konkurrenz bei dieser Discoveryrunde sehr stark ist. Doch selbst wenn sie umgesetzt wird, werde ich 73 sein, wenn sie Triton passiert.

15.6.2020: Versorgen wir das Lunar Gateway

Nun nimmt ja das neue US-Mondprogramm „Artemis“ Fahrt auf, auch wenn niemand an die Landung auf dem Mond 2024 glaubt, außer vielleicht Trump selbst, der natürlich davon ausgeht, das er das noch als Präsident im Amt erlebt (notfalls sagt er einfach die Wahlen im November coronoabedingt ab). Europa will auch dabei sein und ich will mal eine mögliche Beteiligung skizzieren.

Das Lunar Gateway, eine Mini-Raumstation um den Mond, muss auch versorgt werden. Nun hat die NASA einen Auftrag an SpaceX vergeben, aber ich denke, dass wäre eine gute Gelegenheit für Europa. Europa will ja auch an Artemis sich beteiligen, ich vermute vor allem Deutschland, das schon seit das Spacelab entwickelt wurde, die größten Ambitionen in der europäischen Raumfahrt hat und auch Hauptgeldgeber ist. Denn Europa hat das ATV entwickelt und anders als SpaceXs Dragon kann dieses automatisch an eine Raumstation ankoppeln, was bei einer meist unbemannten Station im Mondorbit außerordentlich nützlich ist.

Ich habe mir mal Gedanken gemacht, wie dies Europa leisten könnte. Leider gibt es nur wenige Daten zu dem SpaceX Vertrag. Hier mal einige Fakten, die ich zusammengetragen habe:

Insbesondere das Letzte macht natürlich eine Kalkulation recht schwer doch dazu später mehr.

Ausgangsbasis ATV

Das ATV bestand aus zwei Modulen. Dem Servicemodul, im Prinzip das, was woanders ein Satellit ist. Es enthält das Antriebssystem, die Stromversorgung, Avionik, Kommunikation und den Frachtteil, im Prinzip ein gekürztes MPLM, das umgebaut wurde. Der Frachtbehälter enthält im hinteren Teil noch eine Sektion die Gase, Wasser und Treibstoff beinhaltet und vorne den russischen Kopplungsadapter sowie verschiedene Sensoren, die benötigt werden, damit das mit dem automatischen Ankoppeln auch klappt. Diesen Frachtraum kann man erneut verwenden, für das Servicemodul gibt es aber eine Alternative.

Nun baut schon die ESA für die NASA das Servicemodul der Orion. Da dieses sowieso für Mondmissionen zum Einsatz kommt liegt es nahe dieses zu verwenden. Nur transportiert es eben den Frachtbehälter anstatt die Orionkapsel. Das Servicemodul der Orion hat folgende wesentliche Daten:

Der Halo Orbit wurde von NASA/ESA deswegen gewählt, weil der Geschwindigkeitsbedarf dort recht gering ist. Für das Einschwenken in einen niedrigen, kreisförmigen, Mondorbit benötigt man mindestens 800 m/s, die Apollomissionen, die relativ schnell unterwegs waren und daher mit etwas höhere Geschwindigkeit ankamen benötigten rund 900 m/s. Das hohe Apolunäum senkt die Geschwindigkeitsanforderung deutlich ab, bei einer optimierten Bahn benötigt man unter 200 m/s. Selbst bei einer schnelleren Bahn wie bei Apollo sind es unter 300 m/s.

Nimmt man 400 m/s Geschwindigkeitsänderung an, schließlich muss der Versorger ja noch deorbitiert werden und für das Ankoppeln benötigt man auch Treibstoff, so benötigt man bei dieser Trockenmasse und einem spezifischen Impuls von 2.900 m/s nur 2.162 kg Treibstoff, die Startmasse beträgt dann 16.784 kg

Wie kommen diese 17 t zum Mond? Nun es bietet sich an, eine europäische Rakete dafür einzusetzen und nun wird ja gerade die Ariane 6 gebaut. Meine Idee: Man nimmt eine Ariane 62 und baut an diese jeweils eine Zentralstufe mit je drei Boostern an, quasi eine Ariane 64 ohne einen Feststoffbooster und ohne Oberstufe und Nutzlast, das ist ähnlich einer Delta 4 Heavy oder Falcon Heavy nur eben mit acht Feststoffboostern – je drei an den beiden Außencores und zwei beim Zentralcore. Seitens der Rakete sind die Änderungen überschaubar, im Prinzip ersetzt man nur einen Feststoffbooster durch eine Zentralstufe. Sie benötigt mindestens einen weiteren Befestigungspunkt mit allem was dazugehört wie Verkabelung, pyrotechnische Sprengsätze etc. Selbst mit der bestehenden Oberstufe bringt die Rakete (ich nenne sie „Ariane 683“) rund 21 t auf eine Mondtransferbahn, würde man die Oberstufe verlängern könnte man dies sogar noch steigern – für 20 t mehr Treibstoff errechne ich ein Maximum von 26 t. Aber 21 t sind schon mehr als genug, das wären 18.290 kg im Mondorbit oder über 8 t Fracht, also doppelt, so viel wie die NASA möchte.

Optimierungen

Beide Vehikel haben Systeme, die man bei dieser Mission nicht braucht. Beim ATV ist das die Sektion mit Treibstofftanks, Gastanks und Wassertanks im Heck des Frachtbehälters. Der Frachtbehälter ohne diesen Teil, aber auch den Kopplungsadpater und die Sensoren wiegt nur 3,7 t, also rund 1,6 t weniger. Nimmt man an das die Hälfte davon auf diese Ausrüstung entfällt, so sind das 0,8 t mehr Fracht. Ebenso enthält das Servicemodul Vorräte für eine Besatzung wie Sauerstoff und Wasser. Auch diese Tanks könnte man entfernen. Auch bei den Treibstofftanks im Servicemodul kann man Gewicht sparen. Die Tanks sind relativ schwer, weil es Drucktanks ausgelegt für 20+ Bar sind, dazu gibt es Druckgasflaschen. Das Trockengewicht eines Antriebs liegt so leicht bei einem Achtel der Treibstoffmasse, wenn man nun nur noch 3 t Treibstoff braucht, kann man so leicht 800 kg an Tanks und Druckgasflaschen einsparen.

Wenn alle Einsparungen (konservativ geschätzt) zusammen 1 t liefern so kommt man locker auf 9 t Fracht, mithin das doppelte, was die NASA haben möchte. Ich halte auch 2 t weniger für durchaus möglich.

Kostenabschätzungen

Offen ist, was die NASA pro Mission bezahlen möchte. Da der Vertrag ohne Endlaufzeit ist, gibt es keinen Preis pro Mission – die NASA hat nach CRS-1 auch bei den ISS-Transporten, damit aufgehört die Kosten zu publizieren, denn seitdem sind die Frachtpreise deutlich angestiegen. Die NASA wird für CRS-2 mindestens 71.800 $ pro Kilogramm zahlen, mindestens, weil sie die Maximalnutzlast nie ausschöpft. Bei CRS-1 wurden 79.200 kg befördert und 93.800 kg wären möglich gewesen, wenn man jedes Mal die Maximalnutzlast ausgeschöpft hätte. Gilt dies auch für CRS-2, so wären das 87.800 $/kg.

Nun benötigt man zum Mond mehr Energie, die Nutzlast einer Trägerrakete sinkt auf ein Drittel ab und ebenfalls bedeutend: Nur ein Teil des Transporters ist Fracht, der ganze Transporter muss aber trotzdem in eine Mondumlaufbahn gebracht werden. Ich rechne trotzdem mal mit dem Faktor 3, ein Kilogramm Fracht sollte der NASA also dreimal mehr, mithin 215.400 $ wert sein, die 4.400 kg mithin 948 Millionen Dollar und so würde der Vertrag für 7 bis 8 Missionen reichen – das klingt plausibel, wird man bei der NASA heute wohl kaum länger als in zwei Amtsperioden eines Präsidenten rechnen, bedenkt man, was unter den letzten vier Präsidenten es jeweils für Änderungen beim bemannten Programm gab.

Kann Europa hier in den Kosten mithalten?

Nun die Kosten der hypothetischen Ariane 683 kann man auf Basis der Kalkulationen für die Ariane 6 relativ genau bestimmen. Es sind:

Die hypothetische Ariane 683 würde so 8 x 15 + 3 x 40 + 50 = 290 Mill. € kosten.

Ein weiteres Servicemodul für die Orion alleine kostet 250 Mill. €

Dazu kämen noch die Kosten für den Frachtbehälter und die Sensoren, ich habe hierfür 60 Millionen Dollar angesetzt, da die Kosten des Frachtbehälter, da er auch für die Cygnus gebaut wird, mit 20 Mill. $ Bekannt sind.

Das macht 600 Millionen Dollar für eine Mission. Sie müsste bei dem obigen Kilogrammpreis dann 2.800 kg transportieren, schafft aber das drei bis vierfache, Ja aufs Kilogramm heruntergerechnet ist der Transport zum Mond sogar noch billiger als mit den US-Anbietern zur ISS.

Offene Fragen

Mal abgesehen davon das die politische Entscheidung für den US-Anbieter schon gefallen ist, wären da noch weitere Fragen zu klären. Wahrscheinlich bräuchte man für die Ariane 683 eine neue Startrampe, zumindest einen neuen Starttisch. Auf dem wird die Rakete fixiert und die äußeren Cores mit ihren Boostern passen weder in die Öffnungen und Halterungen für die Feststoffbooster noch auf den Tisch selbst. Daneben benötigt man weitere Leitungen für die Betankung der beiden äußeren Cores am Turm, doch das sollte zu machen sein, starten Delta 4 und Delta 4H doch auch vom selben Startplatz aus, so wäre also offene Frage, nur ob man auch in den Gebäuden, in denen die Ariane 6 integriert wird, den Platz für diese viel größere Version hat. Doch die Gesamtinvestoren im CSG für die Ariane 6 liegen bei rund 750 Millionen Euro, selbst wenn sich diese verdoppeln und man sie auf 7 bis 8 Flüge umlegt, verteuern sie den Start nur um 100 Millionen Dollar oder 1/6 des bisherigen Startpreises.

Offen ist auch, ob man wie vorgeschlagen die Behälter für Gase, Treibstoff und Wasser wirklich entfernt, denn auch das Lunar Gateway benötigt diese Ressourcen und das ATV war schon zusammen mit den Progress der einzige Transporter, der diese Fracht lieferte. Ohne Russland wäre es dann alleine dazu fähig. Es gibt aber natürlich andere Lösungen so kann ein angekoppelter Transport die Bahn anheben, Luft und Wasser kann man auch in Gasflaschen oder Kanistern transportieren, die man dann händisch entleeren / umfüllen muss.

ATV-2

Wenn ich grade mal dabei bin, möchte ich natürlich noch die ISS-Versorgung mit einem ATV 2.0 durchrechnen, einem ATV bei dem man das hintere Modul durch das Servicemodul der Orion ersetzt hat. Ich errechne für eine Ariane 64 eine Nutzlast von 25 t in einen 260 x 400 km Orbit, bei der Ariane 5 ES lag die maximale Nutzlast in einen 260-km-Kreisorbit bei 21,7 t. Bei einer Trockenmasse von 10,3 t und 2 t Treibstoff für die Manöver für das ATV bedeutet das 12,7 t Fracht für die ISS. Wie beim ATV vor allem Treibstoff – das Orionmodul fasst mit 9 t sogar noch mehr als die 6,8 t, die ein ATV aufnahm. Aber selbst wenn man nicht die Maximalnutzlast ausnutzt, bleiben sicherlich über 10 t Nutzlast. Bei ähnlichen Kosten wie bei einem ATV – ein ATV Start kostete rund 420 bis 450 Millionen Euro, ich komme auf Basis von 60 Millionen für Frachtbehälter, 120 Millionen für Ariane 64 und 250 Millionen für Servicemodul auf 430 Millionen Euro pro Frachter. Das wären unter 50.000 Dollar pro Kilogramm (bei 10 t Nutzlast) mithin deutlich preiswerter als bei den US-Vehikeln, doch das war beim ersten ATV und CRS-1 schon so und CRS-2 ist um 600 Millionen Dollar teurer bei 5,9 t weniger Frachtmenge nach dem OIG-Report der NASA. Dagegen ist Ariane 64 billiger bei größerer Nutzlast.

Zusammenfassung

Ich denke die europäische Beteiligung an dem Artemisprogramm wird sich in der Lieferung weiterer Servicemodule für die Orion erschöpfen. Entsprechend wird auch die Beteiligung am Programm sein – ein Modul kostet 250 Millionen Euro, bei der ISS die ja bedeutend billiger ist bezifferte die ESA vor Jahren die jährlichen Kosten, wenn man zahlen würde, anstatt Kompensationslieferungen durchführen, würde mit 150 Millionen €/Jahr und man darf annehmen, dass Artemis viel teurer als die ISS wird. Aber es ist schön zu sehen, das man theoretisch auch andere Optionen hätte.


 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99