Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 611: 28.2.2021 - 8.3.2021

28.2.2021: Mit nur einem SLS Start zum Mond

Die SLS steht ja ziemlich in der Kritik – sie hinkt seit Jahren dem Zeitplan hinterher, sei zu teuer, man munkelt von 2 Mrd. Dollar pro Start (inflationsjustiert sogar noch teurer als eine Saturn V). Für mich sind das Symptome eines verkorksten Ansatzes. Er stimmte schon beim Vorgängerprogramm „Constellation“ das von George Walker Bush initiiert wurde, nicht. Das sollte alleine durch das Einstellen des Space Shuttles und der ISS finanziert werden, was angesichts der Kosten eines Mondprogramms nicht ausreichte. So hatte der Mondlander „Altair“ noch nicht mal die Designphase durchlaufen und auch die Arbeiten an den beiden Trägerraketen Ares I und V waren noch nicht sehr weit fortgeschritten als es Obama 2012 einstellen lies.

Aber so richtig eingestellt wurde es nicht. Die Orion überlebte und aus der Ares V entstand die SLS. Während bei der Orion wie Weiterentwicklung normal weiterging, wenn auch mit geringeren Mitteln und man sogar eine Lösung mit der ESA fand, die das Servicemodul entwickelt und damit ihre ISS-Nutzung ausgleicht, hat man bei der SLS ein neuartiges Finanzierungsmodell entwickelt, das aber nicht funktionierte.

Klassische Raumfahrtprojekte haben einen Finanzbedarf, der in etwa der Silhouette entspricht, die ein Berg hat – es geht zuerst langsam nach oben, dann steil, dann gibt es einen Gipfel und von dem Punkt sinken die Aufwendungen wieder. Die NASA hat verstanden, dass es egal wer im weißen Haus sitzt, es schwierig ist einige Jahre lang erheblich mehr Geld als in den Jahren zuvor zu bekommen, um diesen Spitzenbedarf zu decken. Das wäre die Folge des klassischen Modells. Etwas mehr geht. Also sollte die SLS mit einer konstanten Finanzierung auskommen. Von anderen Raumfahrtprojekten, die länger dauerten als geplant, weiß man aber das diese problemlos jahrelang auf Eis liegen können und trotzdem erhebliche Summen pro Jahr kosten, ohne das überhaupt etwas passiert. So verwundert es nicht, dass der Jungfernflug der SLS ständig nach hinten rutscht, sie pro Jahr aber viel Geld kostet.

Für die Startkosten maßgeblicher ist, dass derzeit nur ein Start alle zwei Jahre geplant ist. Zum Vergleich: Die Saturn V Produktion war auf fünf Starts pro Jahr ausgelegt, mit der Rate wurden die Träger auch gefertigt und dann die Produktion eingestellt, lange bevor die letzte Apollo startete. So muss man aber die Fixkosten für eine Produktion zahlen, die nur alle zwei Jahre einen Träger hervorbringt. Die Leute einfach entlassen kann man schlecht, denn wenn man sie wieder braucht, sind sie dann weg und haben woanders eine Arbeit gefunden. Doch Abhilfe für dieses Dilemma ist nicht in Sicht.

Das eigentliche Thema für den Blog ist aber, dass die SLS zu klein für eine Mondmission ist. Bei Apollo lag die theoretische Maximalnutzlast bei 49,5 t in eine Mondtransferbahn. Die SLS wird mit einer noch nicht verfügbaren Oberstufe (EUS zwischen 37 und 39 t transportieren. Dabei ist heute alles schwerer: die Orionkapsel wiegt trocken 9,3 t, das Apollo CM noch 5,6 t. Eine Lösung für die NASA war, dass man am Mond keinen 100 km hohen Orbit anstrebt, sondern den Halo Orbit. Das reduziert für die CSM-Kombination die Menge an Treibstoff die benötigt wird, dafür benötigt der Mondlander entsprechend mehr. Neues Element ist eine kleine Raumstation, deren Nutzen ich nicht sehe, die dafür aber weitere Kosten aufwerfen wird.

Ich will heute untersuchen, ob eine SLS mit einem zweiten Start einer kleineren Rakete aus dem US-Arsenal nicht doch eine Mondmission durchführen kann, denn derzeit wird sie auch mit EUS Oberstufe keinen Mondlander auch nur bis zum Haloorbit bringen können.

Das grundsätzliche Konzept ist nicht neu. Es war schon bei Ares I und V zur Nutzlaststeigerung angedacht. Damals sollte eine Ares I die Orion in einen Erdorbit bringen. Die Ares V dann den Mondlander. Im Erdorbit koppeln beide und die Oberstufe der Ares V zündet erneut und bringt das Gespann zum Mond.

Die Nutzlaststeigerung kommt dadurch zustande, dass die Ares V das Gewicht der Orion nicht in einen Erdorbit bringen muss. Sie hat so mindestens so viel Treibstoff mehr an Bord wie die Orion wiegt, wenn sie im Erdorbit angekommen ist, und kann eine höhere Nutzlast zum Mond bringen. Bei Ares I+V Kombination waren es nach NASA-Angaben 71,1 t zum Mond, ohne Ares I noch 62,8 t. Das brachte also 8,3 t mehr Nutzlast.

Heute würde man es anders machen. Eine kommerzielle Rakete startet zuerst den Mondlander und dann folgt die bemannte SLS. Die Reihenfolge ist umgedreht, weil keine kommerzielle Rakete der benötigten Nutzlast qualifiziert für einen bekannten Start nach NASA Kriterien ist. Zudem dürfte der Mondlander das schwerere Element sein und so mehr Treibstoff für eine Mondmission übrig lassen.

Ich habe das simuliert und komme, wenn die SLS mit einer voll beladenen Orion (26,5 t Masse) nur in den Erdorbit startet auf 73 t Resttreibstoff. Die EUS wiegt in meiner Simulation 15,5 t trocken und die RL-10C habe ich mit 4520 m/s spezifischen Impuls angenommen. Bei 38 t nomineller Mondnutzlast gelangen so real 53.5 t auf die Transferbahn. Die hat ein dV von 3150 m/s relativ zu einer niedrigen Erdumlaufbahn, was bei dem spezifischen Impuls von 4520 einem Masseverhältnis von etwa 2 entspricht (genau e(3150/4520)). Das heißt, die Hälfte der Masse im Erdorbit landet als Nutzlast in der Transferbahn. 73 t Treibstoff sollten also 73 t Nutzlast in der Mondtransferbahn entsprechen. Von diesen 73 t gehen die 26,5 t für Orion und 15,5 5 t für die Stufe ab, so bleiben noch 31 t für einen Mondlander. In der Praxis wird es weniger sein, denn man benötigt ja noch Treibstoff um an den Mondlander zu koppeln und es gibt bei einer Stufe wie der EUS mit geringem Schub hohe Gravitationsverluste. Immerhin sind 31 t aber ein komfortables Polster für einen Mondlander, denn der muss aus dem Haloorbit genau die Geschwindigkeit zusätzlich aufwenden, die Orion einspart und zwar sowohl beim Abstieg wie Aufstieg. Ich hatte mal für den Apollo-Mondlander für diesen Orbit so eine Masse von 27,5 t abgeschätzt. Allerdings denke ich wird der neue Mondlander sich deutlich von dem unterscheiden. So lasse ich mal die Spekulationen sein, ob es reicht.

Es gibt aber noch eine andere Einschränkung: Der Treibstoffvorrat der Orion. Die Orion hat 8,6 t Treibstoff bei 26,5 t Startmasse. Das ist wenig. Bei Apollo waren es bei etwas mehr als 30 t Startmasse noch über 18 t Treibstoff. Nach NASA Angaben braucht sie 840 m/s, um in den Halo Orbit und zurückzukommen. Beim Hinflug aber mit dem Mondlander – ich habe hier nur mal 28 t als dessen Gewicht angenommen um Luft für Reserven, Verluste und Koppelmanöver zu haben. Bei einem angenommenen spezifischen Impuls von 3100 m/s (etwas geringer als bei der aktuellen Version) des Aj-10 werden von den 8,6 t nutzbaren Treibstoff aber schon 6,9 t für das Erreichen des Halo Orbits benötigt. Der Rest reicht dann nur noch für 280 m/s Geswchwindigkeitsänderung. Die Lösung wäre es die Tanks leicht zu vergrößern. Viel mehr wird nicht benötigt, mit einer Tonne mehr Treibstoff käme man hin, der Mondlander müsste dann um diese Tonne leichter werden.

Das Konzept hat Vor- und Nachteile. Ein Vorteil ist das man anders als bei Ares I+V für den zweiten Start viel Zeit hat, zumindest wenn der Mondlander lagerfähige Treibstoffe hat (Blue Origins Mondlander soll kryogene Treibstoffe einsetzen). Bei der Ares I+V Kombination startete die Ares V zuerst und so musste der kryogene Treibstoff der letzten Stufe Tagelang flüssig bleiben, was eine aufwendige Isolation und Verdampfungsverluste bedeutete. Als Nachteil müsste der Mondlander die Ankopplung durchführen, da die Orion ja noch mit der EUS verbunden ist und auch verbunden bleiben muss. Doch angesichts dessen das automatisches Ankoppeln seit Jahren von ATV und Progress praktiziert wird und inzwischen auch bei bemannten US-Vehikeln der Standard ist, sehe ich da keine großen Hindernisse.

Im Prinzip könnte man sogar auf die SLS verzichten, sofern man Vehikel hat, die mindestens das schwerste Element voll befüllt in einen Erdorbit bringen und das kann jetzt schon die Falcon heavy und Delta 4H in einigen Jahren kommen Vulcan Heavy (max. 34,9 t) und New Glenn (max. 45 t) hinzu. Die Lösung ist es dann die einzelnen Elemente getrennt zu starten – man hat ja eh das Lunar Gateway als gemeinsamen Treffpunkt im Halo Orbit und mit jeweils eigenen Stufen langsam dorthin zu bekommen. Das wäre dann so eine Art Zwitter zwischen einem unbemannten Transporter und einer Raketenstufe. Wenn ich das ATV als europäische Lösung nehme, wäre das z.B. das Servicemodul, bei dem man den Koppeladapter und Sensoren vom Cargobehälter angebracht hat. Der Cargobehälter entfällt. Dagegen hat das Servicemodul mehr Treibstoff und ein größeres Triebwerk. Wahrscheinlich bräuchte man pro Start zwei dieser Stufen. Die erste bringt die Nutzlast in einen höheren, elliptischen Orbit, die zweite zum Mond und schwenkt dort in den Haloorbit ein. Eine Mondmission würde dann sechs Starts von kommerziellen Vehikeln erfordern (vier Transferstufen, je ein Start von Mondlander und Orion. Es sind dann eben auch sechs Kopplungsvorgänge nötig, allerdings alle in einem Erdorbit, das wird beherrscht. Der einzige Nachteil ist das drei der Starts zeitlich eng erfolgen müssen – der bemannte der Orion und dann den der von zwei Stufen um die Orion zum Mond zu bringen, die Besatzung soll ja nicht monatelang im Erdorbit bleiben (auf die erste Stufe könnte sie aber auf der ISS warten). Doch da die NASA dann ja drei Launch Service Anbieter hat, sollte das kein Problem sein. Billiger als zwei SLS-Starts, die sonst nötig wären, wird es in jedem Falle sein. Nimmt man erneut das ATV als Maßstab für die kosten der Stufe – es kostete 280 Mill. Euro pro Exemplar (bei einem pro Jahr, bei sechs Exemplaren in zwei Jahren (SLS-Planung) eher weniger) dazu käme noch der Start der Rakete. Wenn der unter 315 Millionen Dollar pro Stück liegt, wäre die Lösung billiger als die SLS.

Allerdings hat das für die NASA einen Riesennachteil: es ist nicht so cool. Menschen, die auf einer SLS, einer riesigen Rakete starten und dann gleich zum Mond aufbrechen, machen viel mehr her, als wenn sie erst in einen Erdrorbit oder ISS gelangen, dann warten, bis eine Stufe gestartet wird, den Orbit nachdem dann erneut warten und dann erst zum Mond gelangen. Meiner Ansicht nach ist das Lunar Gateway, das für die Forschung ja auch nichts bringt auch nur aus dem Grund designt worden. Es ist eben etwas Neues. Die einzige wirklich nötige Funktion, das es auch Kommunikationsrelais dient, hätte auch ein Satellit erfüllen können, wie China schon demonstrierte.

21.2.2021: Die Corona Simulation und Impfwahnsinn

Ich habe gestern ein kleines Programm geschrieben, weil ich mir selbst über einiges im Klaren sein wollte. Derzeit ist ja viel vom Impfen die Rede, dazu im zweiten Teil des Blogs mehr. In England sinken die Fallzahlen und Wuschelkopf Boris Johnson hat schon für Ende Juni die Aufhebung aller Einschränkungen angekündigt. Der Grund dafür ist, das in England schon mehr als ein Viertel der Bevölkerung geimpft sind und die Fallzahlen nicht mehr ansteigen. Nun wird immer gesagt, das die „Herdenimmunität“ bei einem Wert von 1 - 1/ Reproduktionswert erreicht ist, also bei dem geschätzten Reproduktionswert von 3 bis 4 beim Coronavirus, wenn etwa 70 % der Bevölkerung (genau: zwischen 66,7 und 74 %) geimpft sind. Da sind ein Viertel der Bevölkerung schon deutlich weniger, und das soll schon ausreichen?

Ich wollte die Epidemie mal selbst simulieren und habe mich darangesetzt, das zu modellieren. Natürlich bin ich kein Mediziner und ich habe so was noch nicht gemacht, aber probieren kann man es ja mal.

Mein Modell ist sehr einfach. Ich habe alle 82 Millionen Einwohner der Bundesrepublik durch ein Array in zwei Dimensionen mit etwa 9000 Elementen in jeder Achse symbolisiert (9000² = 81 Millionen). Auf die habe ich nun zuerst die schon infizierten und die Neuinfektionen zufällig verteilt. Jeder neu infizierte hat als Element eines Arays acht direkte Nachbarn: links, rechts, oben, unten und die vier Eckwerte. Unten diesen werden je nach Reproduktionsrate nun Personen ermittelt, die nun auch den Status neu infiziert bekommen, wenn sie vorher kein Virus hatten. Sind sie schon mal infiziert oder geimpft, dann natürlich nicht, aber sie zählen auch für die Reproduktionsrate.

Da sowohl Inkubationszeit 7 Tage dauert, wie auch die Inzidenz auf 7 Tage bezogen wird, verläuft die Simulation im Wochenrhythmus, wobei in der Simulation in Übereinstimmung mit der Quarantänedauer jemand als zwei Wochen lang infektiös angesehen wird.

Die geimpften werden ebenfalls per Zufall ermittelt, wobei wenn schon jemand infiziert war, er natürlich nicht geimpft wird.

Das Modell ist natürlich sehr simpel. Denn Menschen bewegen sich und stecken nicht nur die an mit denen sie täglich zusammen sind wie Familie oder Arbeitskollegen, also im Array die direkten Nachbarn. Das jemand sehr viele ansteckt ist im Modell nicht vorgesehen. Solche „Super-Spreader“ Ereignisse sind z.B. Besuche in Tirol oder Demos von Coronaleugnern. Ebenso nicht, das jemand niemanden anderen ansteckt, weil er sich an die Quarantänebedingen penibel hält. Enn Tatbestand kann man aber über den R-Wert modellieren. Ich denke es ist trotzdem ein gutes Modell für den Einstieg und auch um die Dynamik zu modellieren. Die Startbedingungen beim ersten Aufruf sind die momentanen Fallzahlen bzw. Impfvorgaben die Merkel angekündigt hat. Der standardmäßige R-Wert von 3,5 ist der der vorliegen würde, wenn wir gar nichts tun würden. Das sieht dann so aus:

Simulation 

Woche Neuinfektionen Infizierte Geimpfte Unbelastet 7 Tages Inzidenz
1: 30.049 2.414.000 830.278 78.736.809 256
2: 44.001 2.430.354 1.890.203 77.646.578 376
3: 64.761 2.463.337 3.178.514 76.304.524 553
4: 80.533 2.505.260 4.693.325 74.732.018 687
5: 98.629 2.563.968 6.432.128 72.916.411 842
6: 111.700 2.631.603 8.391.802 70.876.031 953
7: 124.290 2.712.422 10.568.620 68.605.804 1.060,9
8: 131.989 2.799.351 12.958.261 66.121.535 1.126,6
9: 136.737 2.894.403 15.555.819 63.424.177 1.167,1
10: 136.092 2.991.050 18.355.819 60.528.175 1.161,6
11: 131.480 3.089.390 21.352.230 57.438.036 1.122,2
12: 123.027 3.183.068 24.538.485 54.166.556 1.050,1
13: 111.402 3.271.589 27.907.494 50.720.651 951
14: 97.180 3.351.429 31.451.668 47.110.859 829
15: 80.767 3.421.776 35.162.937 43.345.656 689
16: 64.242 3.479.728 39.032.774 39.434.392 548
17: 48.413 3.526.367 43.052.216 35.384.140 413
18: 33.870 3.561.246 47.211.890 31.204.130 289
19: 22.011 3.586.014 51.502.040 26.901.071 188
20: 12.815 3.602.188 55.912.551 22.483.582 109
21: 6.621 3.611.727 60.432.979 17.959.809 57
22: 2.908 3.616.699 65.052.579 13.338.950 25
23: 1.032 3.618.953 69.760.332 8.630.819 9
24: 242 3.619.800 74.544.980 3.846.114 2
25: 29 3.620.013 78.391.071 23 0
26: 0 3.620.042 78.391.071 23 0
           

Die Einstellungen werden übrigens bei jedem Beenden abgelegt und beim nächsten Start restauriert.

Wenn jemand selbst experimentieren möchte, der kann das Programm hier herunterladen (32 Bit Windows).

Und nun zum nächsten, aber damit verbundenen Thema. Es geht um Impfchaos. Hört oder sieht man Nachrichten, so kommt man um das Thema gar nicht herum. Chaos, weil es drei Hauptstränge sind, die widersprüchlicher nicht sein könnten:

Punkt 1 zeigt, wie sich die Situation doch wandeln kann. Vor einigen Monaten, als die Fallzahlen niedrig waren und man gut mit leichten Einschränkungen durch den ansonsten normalen Alltag kam, wollten sich so wenige impfen lassen, das man nicht in den Schutz der Herdenimmunität gekommen wäre, wenn alles auf freiwilliger Basis ablaufen sollte. Seit Lockdown und Verfügbarkeit des Impfstoffes hat sich das geändert. Nun kann es vielen nicht schnell genug gehen und die Nachrichten berichten sogar über „Impfdrängler“. Personen, die meinen sie seien so wichtig, das sie nun schon dran kommen sollten, wo man noch nicht mal die Gruppe der über 80-Jährigen durchhat. Selbst die Parteien meinen, für die paar Personen nun ein eigenes Gesetz schmieden zu müssen. Ein typischer Fall von Aktionismuspolitik, die leider schon seit Jahren der Normalfall ist.(siehe Sondergesetze für Pädophile, Angehörige von terroristischen Organisationen, Überwachungsbefugnisse für solche Organisationen etc.) In einigen Monaten hat sich das Impfdränglerproblem von selbst gelöst, denn es müssen ja sowieso alle geimpft werden (oder zumindest die meisten). Vor allem drängen nun Standesvertreter verschiedener Berufsgruppen wie Ärzte, medizinisches Personal, Polizisten oder Lehrer darauf, dass ihre Gruppen vorgezogen werden. Leute: wir haben zu wenig Impfstoff, sind nicht mal mit der Gruppe, durch die hoch gefährdet ist und ihr habt nichts Besseres zu tun, als an euch zu denken? Dazu noch mehr beim dritten Punkt.

Punkt 2, das das Impfen so schleppend vor sich geht – es sind nicht mal 5 % der Bevölkerung nach zwei Monaten geimpft, ist primär ein Versäumnis der EU. So gut der Ansatz ist, die Impfstoffe für ganz Europa zu bestellen – eine Pandemie macht ja auch nicht vor Ländergrenzen halt und so vielleicht bessere Bedingungen zu bekommen, hat die EU es doch versäumt auch dafür zu sorgen, dass man zumindest genauso schnell dran ist wie andere Länder. Ich kann Konzerne verstehen, die bei hochlaufender Produktion zuerst mal die Länder beliefern, die mehr zahlen oder wie Israel im Gegenzug alle Patientendaten zur Verfügung stellen, um den Impfstoff weiter zu entwickeln, denn das wird ja nicht das letzte SARS-Virus sein. Es ist ja schon das zweite SARS-Virus nach SARS-1 das 2002/3 schon für eine Epidemie in Asien sorgte, das dann jedoch so mutierte, dass es harmlos wurde. Für mich ist auch die Größe der EU ein Problem. Ein Hersteller kann ein Land wie England oder Israel bevorzugt beliefern, weil es eben nur einen Bruchteil der Einwohnerzahl der EU hat. Israel die am weitesten mit dem Impfen sind, haben nicht mal 9 Millionen Einwohner – bei uns sind alleine drei Bundesländer bevölkerungsreicher. In Israel hatten gestern 4,5 von 8,9 Millionen Einwohnern die erste Impfung und 3,2 Millionen die zweite Impfung erhalten. Da ist in wenigen Wochen die Herdenimmunität erreicht. Dann hätte ich für Israel einen tollen Vorschlag wie sie die Wirtschaft ankurbeln können: Impftourismus. Nicht nur das sie als erstes Land dann „corona-immun“ wären, was dazu führen würde, dass man dorthin wieder reisen dürfte, anders als in sonst fast jedes Land. Nein sie könnten auch Touristen mit einer Impfung locken und dann könnten doch alle Drängler, die es in Deutschland gibt nach Israel reisen, na ja zumindest fast alle, bis auf die Neonazis, aber wenn es von denen durch Corona einige weniger gäbe, wäre es auch nicht so schlimm. Wie es in der Praxis aber auch läuft und was die EU wohl unterschätzt hat, ist das nun neuer Nationalismus ausbricht. Die meisten Hersteller von Impfstoffen sitzen in den USA. Selbst der Biontech Impfstoff wird zwar in Deutschland entwickelt aber von Pfizer in den USA produziert und die USA impfen natürlich erst mal ihre eigene Bevölkerung und lassen keinen Export zu. Ich meine man sollte etwas daraus lernen und innerhalb Europa eine Infrastruktur aufbauen, mit der man bei der nächsten Pandemie schnell eine Produktion hochfahren kann, auch wenn diese in der Zwischenzeit nur Geld kostet und überdimensioniert ist. Ganz nutzlos ist sie nicht, man kann dort ja auch Grippeimpfstoff produzieren und da gibt es jedes Jahr auch eine Infektionswelle. In Produktionskapazitäten hätte man aber auch schon vor einem Jahr, als es zum ersten Lockdown kam, investieren können, denn das man sie irgendwann braucht, war ja klar, auch wenn nun der Impfstoff relativ früh zur Verfügung steht – vor einem Jahr glaubte Biontech, das er im Sommer 2021 zur Verfügung steht, da sind wir mit der Zuladdung Ende Dezember 2020 doch schon um einiges besser. Vielleicht hat die EU auch auf diesen Termin hingearbeitet dann würde das Chaos auch Sinn ergeben.

Punkt 3: Während es sonst Impfdrängler gibt, gibt es Ressentiments gegen den Impfstoff von Astrazeneca. Der sei nur zu „70 % wirksam“. Die Impfstoffe von Moderna / Biontech zu über 90 %. Stimmt auch. Aber damit ist gemeint, dass 70 % der geimpften keine Infektion bekommen und 30 % der geimpften eine Infektion mit stark abgemildertem Verlauf. Das ist schlechter als 94 oder 95 % wie bei den beiden oberen Impfstoffen, aber es ist, um Klassen besser als ernsthaft zu erkranken oder sogar zu sterben. Klar, jeder will den wirksamsten Impfstoff, vor allem wenn er von einer deutschen Firma entwickelt wurde. Aber das ist ein Luxusproblem, dass man angehen kann, wenn es mehr Impfstoff als Impfwillige gibt, was über Monate nicht der Fall sein dürfte. Jetzt geht es darum möglichst viele zu impfen, um das Gesundheitssystem zu entlasten und um möglichst schnell aus dem Lockdown herauszukommen. Auch ist es nicht so das der Impfstoff von Astrazeneca bei über 65-Jährigen unwirksam ist. Diese Altersgruppe war einfach nur zu 10 % Bestandteil der Studien, deswegen gibt es darüber noch keine verlässlichen Daten, die Gruppe ist zu klein. Aber die WHO hat ihn für alle Altersgruppen zugelassen und England hat seine hohe Impfquote vor allem mit diesem Impfstoff erreicht – und dort sinken die Fallzahlen trotz der nun vorherschenden „britischen Variante“ des Virus (ich warte ja noch auf die Tirolvariante und ich prognostiziere es wird auch noch eine kommen). So hat man bisher in Deutschland zu wenig mit dem Impfstoff von Astrazeneca geimpft, der Großteil der gelieferten Menge ist noch nicht verimpft.

Mein Vorschlag: Impfdrängler sollten mit diesem Impfstoff geimpft werden. Richtet ein Portal für alle ein, die es nicht erwarten können und die werden dann mit Astrazeneca geimpft. Dann hat man zwei Probleme auf einen Schlag gelöst. Die Idee bestimmte Berufsgruppen mit diesem Impfstoff zu impfen, und dafür keine über 65-jährigen, halte ich für nicht so sinnvoll, denn sie löst das grundlegende Problem ja nicht, dass sich jede Berufsgruppe als besonders gefährdet ansieht. Wenn es aber eine Berufsgruppe gibt, die ich vorziehen würde, dann wäre es das Personal in Krankenhäusern das mit Coronapatienten direkt in Kontakt kommt und die in Altersheimen Senioren betreuen. Die Letzteren, weil wenn dort eine Infektion ausbricht, es leicht zu Toten kommen kann.

So viel von mir zum Impfchaos.

1.3.2021: Sand-Tourismus

In meiner Jugend, als es die DDR noch gab, war ein Witz populär: Was passiert wenn man die DDR-Führung in die Wüste schicket? Antwort: Dreissig Jahre lang passiert gar nichts, dann wird der Sand knapp.

An den Witz wurde ich erinnert, als ich von einem Geschäft zwischen der Insel Sylt und den Vereinigten Arabischen Emiraten (im folgenden als VAE abgekürzt) las. Die Vereinigten Arabischen Emirate liegen bekanntlich auf der arabischen Halbinsel und damit in einer Region, die von Wüsten geprägt ist. Es sollte also genügend Sand für den seit Jahrzehnten anhaltenden und ungebrochenen Bauboom dort, vor allem in Dubai, geben. Doch dem ist nicht so. Die VAE müssen in großem Stil Sand importieren und der wird immer teurer und knapper, weil auch woanders viel gebaut wird, vor allem in China und Indien, wo die VAE bisher den meisten Sand bezogen haben.

Doch warum nehmen die Baumeister in Dubai nicht den Wüstensand? Ist der nicht rein genug oder giftig? Nein die Lösung ist viel profaner. Wüstensand wird vom Wind gegen andere Sandkörner und Gestein getrieben und das dauernd – Dünen können sich innerhalb eines Jahres um Kilometer bewegen und damit bewegt sich auch der Sand aus dem sie bestehen. Wüstensand hat durch diesen Prozess zu runde Kanten, womit er sich nur schlecht mit den anderen Bestandteilen von Beton oder Mörtel verbindet.

Die Vereinigten Arabischen Emirate haben also jede Menge Sand, doch er eignet sich nicht zum Bauen. Sandmangel gibt es auch woanders. Die Insel Sylt wird langsam aber sicher durch das Meer verkleinert – bis zum Mittelalter (genauer gesagt bis zu einer Sturmflut von 1362) war sie noch mit dem Festland verbunden. Um das Versinken der Insel im Meer wenigstens zu verlangsamen, wird dort Sand aufgeschüttet. Genauer gesagt: es wird vor der Küste Sand gefördert und am Strand wieder ausgeblasen. Das ist nur eine Maßnahme, neben anderen wie der Bepflanzung der Dünen, um das Abtragen und die Erosion zu verlangsamen oder Polder, an denen sich Sand verfangen soll.

Das muss wohl ein einflussreicher Araber mit Kontakten zum Königshaus gesehen haben und er hatte eine Idee: Könnte man dafür nicht auch den Sand nehmen, der bei uns in rauen Mengen vorhanden ist? Er brachte den Vorschlag dem Königshaus vor, die ihn erst durch die Universität von Dubai prüfen lies. Diese setzte sich zur Absicherung mit dem Institut für Meeresgeologie in Kiel in Verbindung, wo man auch den Sachverhalt prüfte. Die Idee schien umsetzbar. Doch Sand von der arabischen Halbinsel nur zum Aufschütten über Tausende von Kilometern zu transportieren ist nicht gerade umweltfreundlich und schlichtweg zu teuer – derzeit wird der Sand direkt vor Sylt, etwa 50 km von der Insel entfernt gewonnen.

Tests mit Wüstensand, der in einer simulierten Grenzregion die Ebbe und Flut ausgesetzt ist, ergaben aber einen interessanten Befund. Wüstensand enthält zahlreiche Mineralien, die mit Wasser reagieren, vor allem Spinelle und eine seltene Subklasse der Feldspate. Diese speziellen Mineralien findet man in normalem Gestein selten, weil durch Wasser im Laufe der Zeit ein Ionenaustausch stattfindet. Dabei werden die Calcium- und Magnesiumionen durch Na+ und K+ Ionen ersetzt. In Meerwasser mit einem Salzgehalt von 3,5 Prozent, wobei das Salz vor allem aus Natriumchlorid besteht, geschieht dieser Ionenaustausch noch schneller. Die entstehenden Verbindungen haben aber anders als die Ausgangsmineralien eine ausgeprägte Hydrathülle. Sie quellen auf, binden viel Wasser und aus leicht verschiebbarem Sand wird durch den Ionenaustausch ein relativ festes Gel. Der Effekt ist in etwa der gleiche wie bei Katzenstreu, dass ebenfalls aus einem solchen Mineral besteht, nämlich Montmorillonit. Die einzelnen Körner des Sands quellen auf und werden zu einer festen Masse, die auch andere Verbindungen miteinschließt.

Dies wurde dann in Kiel genauer untersucht. An einem festen, unbeweglichen Untergrund war man verständlicherweise nicht interessiert. Ein Anteil von 15 % Wüstensand und 85 % normalem Sand hatte aber ähnliche haptische Eigenschaften wie der normale Sandstrand, war gegenüber Spülversuchen deutlich beständiger, es wurden 42 % weniger Material abgetragen.

Trotzdem wäre das wohl eine Randnotiz in der wissenschaftlichen Forschung geblieben, denn auch bei diesen Eigenschaften war es einfach zu teuer den Sand zu importieren, auch wenn die VAE ihn umsonst abgaben, hätte Sylt bzw. andere Nordseeinseln, die dasselbe Problem haben, doch den Transport bezahlen müssen.

Verhandlungen mit einem Vertreter des Königshauses kamen aber zu einer Lösung. Anstatt nur Sand zu importieren, exportiert man auch Sand. Der Meeressand vor Sylt eignet sich vorzüglich zum Bauen. So wird an einer Stelle der Insel Sand aus Arabien mit Meeressand vermischt, und als neuer Wellenbrecherschutz aufgetragen und an anderer Stelle Meeressand gewonnen und auf das Schiff verladen das gerade den Wüstensand gebracht hat. Nun waren die VAE bereit den ganzen Export zu bezahlen, das müssen sie auch beim Import von anderem Sand. Dabei liefern sie mehr Sand, als sie abnehmen, denn der Sand vom Meeresgrund ist natürlich vollständig mit Wasser durchdrungen und hat bei gleicher Masse ein erheblich kleineres Volumen.

Beschlossen ist eine begrenzte Kooperation über fünf Jahre mit der Lieferung von 500.000 Kubikmetern Sand pro Jahr, etwa die Hälfte der Menge die Sylt natürlicherweise pro Jahr verliert. Stimmen die Berechnungen des Kieler Instituts so würde diese Menge nicht nur den Landverlust ausgleichen, sondern die Insel würde langfristig auch wieder größer werden. Umgekehrt hätte Dubai mehr als genug Sand für eigene Prestigeprojekte, zu denen nicht nur Gebäude, sondern auch künstliche Inseln zählen. Auch bei diesen kann man sich die Mischung mit Seesand zugute machen, denn es im roten Meer nicht in der Qualität und Menge gibt, die man benötigt, sodass viele der großen künstlichen Inseln bisher Utopie blieben.

5.3.2020: Die SpaceX Märznachlese 

Eigentlich wollte ich die Nachlese diesen Monat auslassen, gab es doch nichts wirklich Bemerkenswertes bis gestern.

Es gab nur drei Starts, alle mit Starlinksatelliten. (Der letzte gestern, eigentlich schon im März, aber ich will mal nicht so sein). Viel mehr Startabbrüche gab es, zuletzt zwei in Folge. Dann haben sie noch eine Stufe bei der Landung verloren, ein Triebwerk versagte wegen Materialermüdung. Beides – die Startabbrüche aufgrund technischer Fehler und die verlorene Stufe dürften ein Hinweis sein, wie oft SpaceX ihre erste Stufe erneut verwenden kann. Es sollen ja zehn Starts sein, die letzte Stufe versagte nach sechs Flügen. In der Praxis ist das aber relativ egal, da man die Hälfte der Produktionskosten ja schon mit einmaliger Wiederverwendung drin hat und die Bergung und Inspektion kosten auch jedes Mal und die senken die Marge auch. Wie sich zeigte war das Triebwerk schon beim Aufstieg beschädigt und schaltete sich vorzeitig ab. Da die Starlink Satelliten aber weit unterhalb der Maximalnutzlast lagen beeinflusste das nicht die Mission. Veröffentlicht hat man dies nicht, es wäre ohne den Verlust der Stufe niemals herausgekommen. Als Workaround wird es in Zukunft nun keine Videos der Landung mehr geben.

Dann haben sie aber gestern wieder mal einen Starship Prototyp hochgejagt. Diesmal klappte die Landung – wobei sie auch die Gipfelhöhe des Tests erneut abgesenkt haben (diesmal waren es noch 10 km, beim ersten Test noch 15 km). 8 Minuten Minuten später explodierte dann die Rakete. Auf dem Video wird sie richtig hochgeschleudert als hätten die Triebwerke noch mal kurz gezündet. Angedeutet hat sich das schon vorher – in dem Video, das natürlich vor der Explosion endete, sieht man nach der Landung noch ein kleines Feuer neben der Rakete brennen. Unabhängige Videoübertragungen (das Aufkaufen von Land um Boca Chica damit solche Fehlschläge nicht von anderen beobachtet werden können scheiterte ja) zeigen auch nach dem Landen das Wasser versprüht wurde, um das Feuer zu löschen.

Immerhin kann man nun den für die Ladung nötigen Treibstoffvorrat genauer beziffern. Ganz eindeutig ist es nicht weil das Video, das ich kenne (Link) am Schluss in die Seitwärtsperspektive schwenkt. Aber es scheinen bei 5:59 zwei Triebwerke zu zünden und bei 6:08 eines auszugehen das verbliebende brennt bis bei 6:29 die Ladung erfolgt. Vollen Schub von 2.500 kN und einen reklamierten Bodenimpuls von 3230 m/s angenommen, sind das bei 38 Gesamtbrennsekunden dann 29,7 t Treibstoff. Etwas oberhalb der ersten Schätzung von 23 t, bei der die Brenndauer aufgrund des Aufschlags aber auch kürzer war. Bei 100 t Nutzlast ein nicht zu verachtenden Anteil, der in den Orbit und zurück transportiert wird.

Ich habe mir überlegt, ob ich was dazu schreiben soll, aber angesichts dessen das hier bei den Kommentaren SpaceX sogar mit Wernher von Braun verglichen werden, lasse ich das. Wer solche Vergleiche anstellt, hat seine Misskenntnis eigentlich ja schon offenbart. Ich sehe nur einen langen Weg für SpaceX, denn erinnern wir uns die ersten Landeversuche der Falcon 9 auf Land mit der Grasshopper klappten besser. Die Durststrecke kam dann erst mit den Landeversuchen auf See. Ebenso dürfte die entscheidende Frage sein, ob das Starship überhaupt den Wiedereintritt überlebt und wenn ja wie viel das Fixen was an der Nutzlast verändert, denn Nachbesserungen machen es zwangsläufig schwerer. Aber lange müssen wir nicht mehr warten:

“I’m highly confident that we will have reached orbit many times with Starship before 2023, and that it will be safe enough for human transport by 2023,” Musk said. “It’s looking very promising.”

Ja ich nehme SpaceX bei ihren eigenen Aussagen. Ich habe hier ja schon die Kritik gehört, dass man SpaceX zunehmend nicht mit anderen Firmen vergleicht, sondern mit ihren eigenen Aussagen. Ja mit was denn sonst? In der realen Welt misst man immer Personen an ihren Aussagen. Egal, ob das bei Firmenankündigungen über ein zu erwartendes Geschäftsjahr sind oder Politiker an ihren Aussagen. Ich denke Merkel wird ihr Satz vor der Wahl 2016 „Mit mir wird es keine Maut geben“ sehr oft vorgehalten worden sein.

Der entscheidende Punkt ist das SpaceX Kritiker meist bestrebt sind faire Vergleiche ziehen. SpaceX ist inzwischen keine horizontale Firma mehr. Sprich eine Firma, die sich in einem Marktsegment breitmacht. Stattdessen ist sie eine vertikale Firma. Eine Firma, die ausgehend vom Kerngeschäft immer mehr Teile der Wertschöpfungskette anbietet, die sonst andere Konkurrenten anbieten. Nehmen wir mal Starlink. Andere Firmen starten Kommunikationssatelliten. Die werden aber von anderen Firmen wie SES oder Eutelsat gebaut. Vermietet werden dann die Transponder und diese Firmen haben dann Verträge mit Endkunden. Starlink will diese direkt an die Endkunden vermieten, SpaceX ist daher in drei Marktsegmenten präsent. Der Vergleich mit einem Launch Service Provider ist daher irreführend. Wenn wie im letzten Jahr zwei Drittel der Starts nur auf eigene Nutzlasten entfallen, dann sollte das auch Fans klar sein, denn man kann schlecht die Kostenstruktur einer Firma vergleichen die zu 75 % auf frei ausgeschriebene Aufträge angewiesen ist mit einer, die zwei Drittel aller Starts mit eigenen Nutzlasten durchführt und beim restlichen Drittel die frei ausgeschriebenen Aufträge auch nur 50 % ausmachen.

Passend zu Starlink fand ich in der letzten ct‘ eine Meldung zu einem neuen Tarif eines geostationären Satellitenanbieters. Es ist ja nicht so, das man bisher kein Internet über Satellit buchen kann. Hier mal ein Vergleich der bisher bekannten Kosten:

Anbieter Eutelsat SpaceX
Tarif Konnect Max Starlink
Datenrate 100 Mbit/s 50 - 150 Mbit/s
Kosten/Monat 70 Euro 99 Dollar
Einmalige Kosten 50 Euro 499 Dollar + 50 Dollar Versand
Sonstige Kosten (optional) 99 Euro für Antennenmontage  
Latenz 240 ms 20 bis 40 ms

De Fakto kann man den potenziellen Kundenstamm in zwei Gruppen unterteilen. Die einen können zwischen beiden Anbietern wählen, die anderen benötigen zwingend ein Feature von Starlink. Bedingt durch die Höhe des GEO-Orbits sind die Latenzen bei geostationären Satelliten natürlich höher. Für kontinuierliche Datenströme spielt das keine Rolle. Egal ob dies Streamings, Up- oder Download oder der Aufbau von Webseiten ist. Nur bei jeweils neuen Anforderungen wie dem Aufruf einer neuen Seite merkt man die Verzögerung. Die Latenz ist aber von Bedeutung, wenn man etwas Interaktives hat. Egal ob dies ein Online Spiel ist oder eine Videokonferenz. Man kennt das ja von den Schalten in Nachrichtensendungen. Selbst wenn die Korrespondenten nicht in einem Drittweltland sind, gehen die Verbindungen meist über Satellit und da steht dann der Journalist nach der Frage erst mal ne Sekunde da, bis auch er die Frage gehört und geantwortet hat und das jeweils den Weg zum Satelliten und zurückgenommen hat.

Der zweite kleinere Kreis ist, der der von geostationären Satelliten gar nicht versorgt werden kann, weil die Antenne dann zu nahe an den Horizont ausgerichtet werden muss. Das betrifft höhere Breiten. Dieser Kreis ist aber klein und nicht umsonst hat SpaceX bisher mit einer Ausnahme alle Satelliten mit 53 Grad Bahnneigung gestartet. Damit decken sie die USA bis auf Alaska komplett ab. 53 Grad Breite erreichen aber auch geostationäre Satelliten. Das ist die Höhe von Kiel. Das große Geschäft wird man mit dem exklusiven Kundenstamm nicht machen, denn realistisch bleiben als potenzielle Kunden die Bewohner von Alaska, Island und Grönland und der nördlichen Gebiete von Kanada, Norwegen, Schweden und Finnland übrig. Viele sind das nicht denn auch in den Ländern sind die meisten großen Städte an der südlichen Landesgrenze. Auf jeden Fall ist SpaceX schon jetzt teurer als der etablierte Service. 99 Dollar sind heute 82,16 Euro. Zusammen mit den Fixkosten ist man im ersten Jahr 1440 Euro los, bei Eutelsat sind es 890.

Von den bisher 1.203 Starlinksatelliten arbeiten nur noch 1.122. 63 wurden aktiv deorbitiert, der Rest fiel schon nach dem Start aus bzw. bewegt sich nicht mehr, was ein Indiz für einen Ausfall ist. Eine Ausfallrate von 6,8 % bei einer Zeitspanne von 1,5 Jahren ist nicht gerade toll. Bis zum gestrigen Start betrug die mittlere Dauer im Orbit eines Starlinksatelliten keine 403 Tage bei 1.143 Satelliten. Demnach müsste SpaceX 6,1 % aller Satelliten pro Jahr ersetzen, was bei einer 12.000 Satellitenkonstellation alleine jedes Jahr  13 Starts ausmachen dürfte,

Mein eigentliches Hauptthema für heute ist mal was für SpaceX zu tun. Es gibt ja eine nicht kleine Chance, das Starship/Superbooster scheitern. Also nach Erfolg sieht es nicht aus. Es gab bisher zehn Prototypen. Bis auf zwei die gerade Mal 150 m hoch kamen, sind alle zerstört worden. Sechs der Explosionen fanden am Boden statt. Was könnte die Firma machen, wenn sich das Projekt als nicht umsetzbar erweist. Es wäre ja nicht das erste eingestellte Space-Projekt. Wir erinnern uns an Falcon 1e, Falcon 5, Falcon 9 Block II und III und Falcon 9 Heavy, die allesamt wieder eingestellt wurden. Eine sinnvolle Möglichkeit wäre es die Raptors in die erste Stufe der Falcon 9 einzubauen. Mit 2500 kN Schub hat ein Raptor in etwa dreimal so viel Schub wie ein Merlin 1D der ersten Stufe (845 kn). Es hat aber einen höheren spezifischen Impuls. Daher sollte die Nutzlast ansteigen. Doch ganz so einfach ist es nicht. Meiner Ansicht nach ist die Falcon 9 in der Länge an der Grenze, die machbar ist. Je länger die Rakete wird, desto höher werden die aerodynamischen Belastungen beim Aufstieg. Man sieht das an der für die Nutzlast viel zu kurze Nutzlastverkleidung, was vor allem bei der Falcon Heavy mit höherer Nutzlast den Einsatz hemmt. Nun hat aber Methan weniger als die Hälfte der Dichte von Kerosin. Man wird also die Tanks nicht voller füllen können. SpaceX setzt ja schon unterkühlte Treibstoffe ein, weil man das Problem der nicht vergrößerbaren Tanks hat.

Ich bin im Folgenden davon ausgegangen dass:

Bei den mittleren Dichten von 0,42 g/cm³ (Methan), 0,83 (RP-1) und 1,141 (LOX) komme ich auf:

Mithin ein LOX/Methan Verhältnis von 4,31

Es gibt nun zwei Möglichkeiten:

ich lasse die Tanks unverändert, dann kann ich, da das Raptor zur Zeit mit LOC/Methan 3,55 zu 1 arbeitet einen Teil des Methans nicht nutzen, ich müsste auf 231.820 t beim Sauerstoff kürzen um das Methan vollständig zu nutzen.

Ich kürze den einen Sauerstofftank und verlängere den Anderen. Dann erreiche ich beim Verhältnis 3,55 zu 1 folgende Massen:

Beides wiegt knapp 80 t weniger als die heutige Treibstoffzuladung. So sollte auch trotz leicht geringerem Schubs (7605 zu 7500 kN) der Start möglich sein. Der Vakuumimpuls des Raptors auf Sea Level Niveau ist unbekannt. Ich habe ihn zu 3400 m/s angenommen, der spez. Impuls auf Meereshöhe soll bei 3.230 sein. Alles offen, weil das alles Ankündigungen sind und SpaceX das Triebwerk noch nicht zu Ende entwickelt hat. Als Grundlage dient mein Modell der Falcon 9, die Daten für die Rakete gibt es ja seitens SpaceX nicht, das Modell passte ich so an, das es die 6,500 kg (ohne Wiederverwendung) real in den GTO erreicht, die Königsmann nennt.

Mit Option 1 komme ich auf folgende Rakete und etwa 5,9 t Nutzlast:

Rakete: Falcon 9 Raptor GTO

Startmasse
[kg]
Nutzlast
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
[Prozent]
Sattelpunkt
[km]
Perigäum
[km]
Apogäum
[km]
438.636 5.900 10.281 1.006 1,35 160,00 200,00 35790,00
Startschub
[kN]
Geographische Breite
[Grad]
Azimut
[Grad]
Verkleidung
[kg]
Abwurfzeitpunkt
[s]
Startwinkel
[Grad]
Konstant für
[s]
Starthöhe
[m]
Startgeschwindigkeit
[m/s]
7.500 28 85 2.000 217 90 5 10 0
Stufe Anzahl Vollmasse
[kg]
Leermasse
[kg]
Spez. Impuls (Vakuum)
[m/s]
Schub (Meereshöhe)
[kN]
Schub Vakuum
[kN]
Brenndauer
[s]
Zündung
[s]
1 1 319.124 22.000 3.400 7500,0 8850,0 114,15 0,00
2 1 111.612 6.200 3.273 934,0 935,0 369,00 120,00

 

Simulationsvorgaben

Azimuth Geografische Breite Höhe Startgeschwindigkeit Startwinkel Winkel konstant
85,0 Grad 28,3 Grad 10 m 0 m/s 90 Grad 5,0 s
Abbruch wenn ZielApo überschritten, Orbitsim wenn Kreisbahngeschwindigkeit erreicht
  Perigäum Apogäum Sattelhöhe
Vorgabe 200 km 35.790 km 160 km
Real 215 km 35.854 km 160 km
Inklination: Maximalhöhe Letzte Höhe Nutzlast Maximalnutzlast Dauer
28,7 Grad 187 km 161 km 5.900 kg 6.021 kg 488,6 s
Umlenkpunkte Nr. 1 Nr. 2 Nr. 3
Zeitpunkt 61,1 s 133,0 s 208,0 s
Winkel 31,0 Grad 34,0 Grad -2,2 Grad

Parameter der Stufen

nr.: Geschwindigkeit Maximalhöhe Maximaldistanz Flugzeit Perigäum Apogäum Inklination
1: 2.827,4 m/s 146,8 km 204,9 km 445,7 s -5.866,5 km 143,9 km 29,0 Grad

Diagramme



Mit der Option 2 komme ich auf folgende Rakete und etwa 6,7 t Nutzlast also noch mehr als vorher.

Rakete: Falcon 9 Raptor 2 GTO

Startmasse
[kg]
Nutzlast
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
[Prozent]
Sattelpunkt
[km]
Perigäum
[km]
Apogäum
[km]
465.982 6.700 10.281 1.005 1,44 160,00 200,00 35790,00
Startschub
[kN]
Geographische Breite
[Grad]
Azimut
[Grad]
Verkleidung
[kg]
Abwurfzeitpunkt
[s]
Startwinkel
[Grad]
Konstant für
[s]
Starthöhe
[m]
Startgeschwindigkeit
[m/s]
7.500 28 85 2.000 217 90 5 10 0
Stufe Anzahl Vollmasse
[kg]
Leermasse
[kg]
Spez. Impuls (Vakuum)
[m/s]
Schub (Meereshöhe)
[kN]
Schub Vakuum
[kN]
Brenndauer
[s]
Zündung
[s]
1 1 345.670 22.000 3.400 7500,0 8850,0 124,35 0,00
2 1 111.612 6.200 3.273 934,0 935,0 369,00 130,00

 

Simulationsvorgaben

Azimuth Geografische Breite Höhe Startgeschwindigkeit Startwinkel Winkel konstant
85,0 Grad 28,3 Grad 10 m 0 m/s 90 Grad 5,0 s
Abbruch wenn ZielApo überschritten, Orbitsim wenn Kreisbahngeschwindigkeit erreicht
  Perigäum Apogäum Sattelhöhe
Vorgabe 200 km 35.790 km 160 km
Real 215 km 35.792 km 160 km
Inklination: Maximalhöhe Letzte Höhe Nutzlast Maximalnutzlast Dauer
28,8 Grad 183 km 161 km 6.700 kg 6.857 kg 498,4 s
Umlenkpunkte Nr. 1 Nr. 2 Nr. 3
Zeitpunkt 61,1 s 119,2 s 208,0 s
Winkel 31,0 Grad 34,0 Grad -2,2 Grad

Parameter der Stufen

nr.: Geschwindigkeit Maximalhöhe Maximaldistanz Flugzeit Perigäum Apogäum Inklination
1: 2.982,6 m/s 149,3 km 245,3 km 461,2 s -5.802,3 km 148,7 km 28,8 Grad

Diagramme



Als zweiten Schritt könnte man das Raptor auch in die Oberstufe einbauen. Das hätte zwei Folgen. Zum einen steigt der Schub stark an, zum anderen kann man weniger Treibstoff zuladen. Ich habe nur noch die zweite Rakete so verändert. Der Treibstoffanteil sinkt auch hier ab. Den spezifischen Impuls des Raptor Vakuums habe ich etwas geringer angenommen als bei SpaceX, da man die Düse kürzen muss, sonst passt sie nicht mehr in den Stufenadapter. Weiterhin wiegt das Raptor mehr als das Merlin, ich habe die Stufe daher um 1 t schwerer gemacht. Die Nutzlast liegt wegen dieser Nachteile mit 6.300 kg deutlich geringer. Das liegt daran, dass ich bei nun sehr kurzen Brenndauern der Stufen eine Freiflugphase von 140 s Dauer einführen musste. Das ist suboptimal. Doch das Raptor soll ja auf 40 % Schub reduzierbar sein. Das habe ich getan, und dafür die Freiflugphase weggelassen und komme dann auf nahezu die gleiche Nutzlast.

Rakete: Falcon 9 Raptor 4 GTO

Startmasse
[kg]
Nutzlast
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
[Prozent]
Sattelpunkt
[km]
Perigäum
[km]
Apogäum
[km]
444.484 6.600 10.281 1.161 1,48 160,00 200,00 35790,00
Startschub
[kN]
Geographische Breite
[Grad]
Azimut
[Grad]
Verkleidung
[kg]
Abwurfzeitpunkt
[s]
Startwinkel
[Grad]
Konstant für
[s]
Starthöhe
[m]
Startgeschwindigkeit
[m/s]
7.500 28 85 2.000 217 90 5 10 0
Stufe Anzahl Vollmasse
[kg]
Leermasse
[kg]
Spez. Impuls (Vakuum)
[m/s]
Schub (Meereshöhe)
[kN]
Schub Vakuum
[kN]
Brenndauer
[s]
Zündung
[s]
1 1 345.670 22.000 3.400 7500,0 8850,0 124,35 0,00
2 1 90.214 7.200 3.600 1000,0 1000,0 298,85 130,00

 

Simulationsvorgaben

Azimuth Geografische Breite Höhe Startgeschwindigkeit Startwinkel Winkel konstant
85,0 Grad 28,3 Grad 10 m 0 m/s 90 Grad 5,0 s
Abbruch wenn ZielApo überschritten, Orbitsim wenn Kreisbahngeschwindigkeit erreicht
  Perigäum Apogäum Sattelhöhe
Vorgabe 200 km 35.790 km 160 km
Real 208 km 35.805 km 160 km
Inklination: Maximalhöhe Letzte Höhe Nutzlast Maximalnutzlast Dauer
28,7 Grad 178 km 161 km 6.500 kg 6.712 kg 428,1 s
Umlenkpunkte Nr. 1 Nr. 2 Nr. 3
Zeitpunkt 61,1 s 119,2 s 400,0 s
Winkel 58,9 Grad 1,0 Grad -8,0 Grad

Parameter der Stufen

nr.: Geschwindigkeit Maximalhöhe Maximaldistanz Flugzeit Perigäum Apogäum Inklination
1: 3.125,8 m/s 167,7 km 220,9 km 428,8 s -5.725,8 km 165,3 km 28,5 Grad


Was gibt es sonst noch Neues?

Am 4.2. gab es die Ankündigung eines weiteren Touristenflugs – es gab ja schon einen mit Space Adventure zur ISS. Dieser ist nun von Axiom Space gebucht und alleine von Jared Isaacman gebucht. Einen Sitz will er einem Gewinner einer Geldsammelmission für das St. Jude Krankenhaus zur Verfügung stellen. Leider kommen bei der Website nicht die Mittel zusammen. Aktuell sind es etwas über 11 Millionen. Vor etwas mehr als zwei Wochen waren es noch 9, also ich glaube kaum, das er so das 100 Millionen Dollar Ziel im Juli erreicht. Eine Frau, die in dem St Jude Krankenhaus an Krebs genesen ist, soll auf jeden Fall mitfliegen. Anders als bei Space Adventures wird die Mission nicht an die ISS andocken, das heißt die vier Insassen bleiben die ganze Mission über im Orbit. Immerhin: damit sind ganz andere Bahnen möglich. Ich habe mir mal die Mühe gemacht, dass zu berechnen. Bei einer Masse von 13 t (Die Crew Dragon Demo-2 Mission wog 12,5 t beim Start) kann man durchaus ein Apogäum in 4000 km Erdferne erreichen, wenn das Perigäum niedrig bleibt, ich habe 180 km für das Perigäum angesetzt. Da hat man schon einen guten Ausblick, die Erde ist zehnmal weiter weg als bei der ISS und es wäre dreimal höher als bei der höchsten Geminimission. Also SpaceX Fans, wenn ihr mit dabei sein wollt, spendet fleißig für das St Judes Hospital. Der Gewinner wird der Dritte sein, der vierte Platz wird durch ein Panel bestimmt. Was mich bei allen Flügen wundert – egal ob zur ISS oder kommerziell ist das es immer nur vier Insassen sind. Bei einem Orbitflug ohne Andocken an die ISS noch verständlich – es wird sonst wohl zu eng. Ich vermute die vier Passagiere kennen sich nach dem Flug auch besser als sie das jemals wollten. Auch bei NASA-Transporten zur ISS ist es klar. Mehr Astronauten die dauerhaft an der Station sind benötigen auch mehr Fracht und das sind pro Person einige Tonnen im Jahr. Aber bei den Kurzzeitbesuchen zur ISS sollten doch alle sieben Plätze belegt sein. Schon alleine um die Kosten pro Person klein zu halten. Ich vermute man hat nicht genug Platz in der ISS. Schon beim Demo-2 Flug musste einer der Astronauten in der Dragon übernachten mangels Schlafquartier. Aber die sollen bzw. sind schon mit Frachtflügen unterwegs (pikanterweise mit einer Cygnus weil sie nicht in eine Dragon reinpassen....). Was mich auch verwundert ist das nach wie vor für 2023 die Mission von Maezawa, die für 2023 zum Mond geplant ist immer noch mit dem Starship erfolgen soll. Eine Falcon Heavy könnte – wenn, ja wenn die Werte auf der Website der Realität entsprechen – eine Dragon, immerhin ein nach den strengen NASA-Richtlinien zertifiziertes Gefährt auch zum Mond bringen – wenn auch nur für eine Umkreisungsmission, ohne in den Orbit einzutreten. Doch die Dauer von vier bis fünf Tagen, die für die Starship Mission genannt wird, spricht auch gegen das Eintreten in die Umlaufbahn. Traut man der Falcon Heavy den Start nicht zu? Oder einfachere Erklärung, hat sie nicht die Nutzlast, die reklamiert wird. Allerdings nennt selbst NASAs Performance Website, die bei der Falcon 9 immer viel geringere Nutzlasten berechnet als SpaceX ausgibt und daher wohl auch die wahren Daten der Rakete kennt für eine Bahn mit einem c3 von 0 von 15 t Nutzlast aus – bei 13 t Nutzlast gäbe es also kein Problem, wenn das Raumschiff dafür geeignet ist und das soll es ja sein (habs ja schon 2010 nicht geglaubt …).

6.3.2020: Die Ariane 6 PPH

40 t StufeLange bevor man sich für das heutige Design der Ariane 6 entschied, gab es Studien und Projekte. Die ersten waren anders als die Ariane 5 und heutige Ariane 6, sie hatten das Kürzel PPH für „Powder-Powder-Hydrogen“ was angibt, welchen Typ die Stufen hatten.

Verglichen mit Ariane 5 entschloss man sich für eine radikale Vereinfachung der Rakete:

Alle Feststoffbooster sind vom gleichen Typ. Sie hatten von Masse und Schub dieselben Parameter wie die heutigen Booster der Ariane 6 bzw. erste Stufe der Vega C. Die Oberstufe verwendete das Vinci Triebwerk, hatte aber, anders als die heutige Ariane 6 Oberstufe mehr Treibstoff und trotzdem nur einen Durchmesser von 4 m. Geplant waren 32 bis 40 t Treibstoff. Daraus ergibt sich ein besseres geometrisches Verhältnis. Hat ein Tank einen sehr großen Durchmesser aber eine nur geringe Höhe wie dies bei den Oberstufen der Ariane 6 und 5 gegeben ist, so ist die Oberfläche gemessen am Tankvolumen groß und die Leermasse als dessen Folge hoch. Ideal wäre bei zylinderförmigen Tanks eine doppelt so große Länge wie Durchmesser. Wendet man diese Erkenntnis der Geometrie auf den größeren LH2-Tank an, so folgt daraus, dass bei 4 m Durchmesser die ideale Stufe 47 t Treibstoff fasst (Leervolumen nicht berücksichtigt). Das Design ist also nahe beim Optimum. So sollte nach den Vorstellungen der ESA die Stufe nur 4 t trocken wiegen. Zum Vergleich die ESC-B Stufe der Ariane 5 ECB mit 27-28 t Treibstoff sollte trocken 6,75 t wiegen und bei etwa dieser Region liegt auch die Oberstufe der heutigen Ariane 6 mit 30 t Treibstoff. (Da es keine genauen Daten gibt, bleibt dies eine Spekulation, doch in meinem Modell komme ich bei etwa 7 t für die Trockenmasse des Upper Liquid Propulsion Moduls (ULPM) auf die1 11 t Nutzlast die, das Users Manual von Arianespace nennt). Da jede Tonne, welche diese Oberstufe mehr wiegt, die Nutzlast um 1 t sinkt, fand ich dies wäre ein gutes Design. Meine Vorgabe liegt in der ersten Iteration bei 40 t Masse und 4,5 t Trockenmasse, entsprechend einer hochskalierten DCSS, also nicht einmal einem besonders leichten Entwurf. Der war aber deutlich leichter, so setzte er einen Integraltank ein, der schon durch den fehlenden Tankabschluss 500 kg Gewicht einspart.

Der originale Entwurf der ESA sah drei Booster in der ersten Stufe vor. Die Nutzlast sollte 6,5 t in den GTO betragen. Das kann ich bestätigen. Ich komme mit der 40 t schweren Oberstufe auf 6,8 t. Ich habe aber noch zwei andere Designs vorgesehen:

Die Nutzlast beträgt für diese beiden Versionen 9,3 bzw. 10 t. Das mit mehr Boostern die Nutzlast immer langsamer ansteigt, zeigte sich schon beim Entwurf der ESA – da war anfangs auch eine Version mit zwei Boostern angedacht, und die hatte nur 3,5 t Nutzlast. Pro Booster werden also 3,3 t – 2,5 – 0,7 t Nutzlast gewonnen. Trotzdem ist das natürlich von Vorteil, wenn man eine Nutzlast hat, die einen Booster weniger braucht.

Das PPH-Konzept ist jetzt nicht gerade technisch elegant, doch es überzeugt durch Ökonomie. Die Begrenzung auf 6,5 t Nutzlast erfolgte, weil so schwer damals die schwersten Satelliten waren und es Einzelstarts geben sollte. (Selbst heute, 10 Jahre später würden 6,5 t meistens ausreichen. Es gibt nur wenige Satelliten in den GTO, die schwerer sind, der Rekord liegt derzeit bei 7 t, also nur wenig mehr. Anstatt sechs Ariane 5 Starts wie bisher, sollte es zwölf Starts der Ariane 6 geben. Das bedeutet: es werden pro Jahr 12 Oberstufen anstatt sechs und 48 Booster anstatt 12 produziert. Gemäß Erfahrungen durch die Produktion und der Rationalisierung sollte ein Booster so 30 % weniger als bei der kleineren Produktionsmenge kosten und die Oberstufe nur 84 % gegenüber der kleineren Stückzahl.

Durch die höhere Stückzahl sollte die Ariane 6 PPH nur 70 Millionen Euro kosten. Die Ariane 62 liegt bei 90 Millionen Euro, die Ariane 64 bei 120 Millionen Euro.

32 t StufeDie heutige Ariane 6 mit den Versionen Ariane 62 und 64 kam nach einigen Iterationen zustande. Interessanterweise spielten die Satellitenbetreiber dabei eine wichtige Rolle. Die Forderung der ESA beim ersten Entwurf das die Rakete nur eine Einzelstartkapazität haben sollte, war eine Folge dessen, das Arianespace zu dem Zeitpunkt bei der Ariane 5 mehr Probleme hatte Satelliten zu paaren, sowohl bei der Masse wie auch dem Anlieferungszeitraum. Die Industrie überzeugte die ESA, dass die Doppelstartfähigkeit mehr Vorteile bietet als Nachteile, weshalb man wieder zu einer Lösung kam, die zwei mittelschwere Satelliten gemeinsam starten kann. Die Ariane 64 soll nach Arianespace 11 t in den GTO starten können, gleich viel wie die Ariane 5 in der jetzigen Form, die ESA verspricht sogar 12 t die bei nicht zu hohen Strukturfaktoren auch realistisch sind. Doch wie man sieht, käme man auch mit mehr Boostern beim PPH-Konzept auf diese geforderte Nutzlast. Nicht ganz die 11 bis 12 t einer Ariane 64, aber immerhin 10 t, so viel wie lange Zeit auch die Ariane 5 ECA hatte. Mittlerweile hat man sie durch verschiedene Optimierungen auf 11,25 t gesteigert. Man kann die Kosten dieser Versionen, die es im ESA Konzept nicht gab, leicht errechnen, und zwar weil die Booster ja denen der Ariane 62/64 entsprechen und da zwischen der Ariane 62 und 64 es nur als Unterschied zwei Booster mehr gibt, die Versionen aber 30 Millionen Euro im Preis auseinanderliegen, würden die Versionen mit vier Boostern 85 bzw. mit fünf Boostern 100 Millionen Euro kosten – 5 bzw. 20 Millionen Euro günstiger als eine Ariane 62 bzw. 64 bei 4,8 t mehr Nutzlast bzw. 1 t weniger Nutzlast.

Optimierungen

Ich habe für den ersten Entwurf die größte Stufe genommen, die im Bereich der ESA Vorgaben lag. Das geschah aus der Logik heraus – diese Stufe hat den höchsten spezifischen Impuls und eine große Stufe sollte daher am meisten Nutzlast bringen. Doch bei einem komplexen, nicht linearen, Problemen wie einer Aufstiegsbahn kann es sein, das dies nicht die optimalste Lösung ist. Wie man an den ausgeprägten „Buckeln“ bei den Aufstiegskurven sieht, gibt es durch die lange Brennzeit der Oberstufe ausgeprägte Gravitationsverluste. Vereinfacht gesagt: Die Stufe hat ein Triebwerk das 180 kN Schub hat. 180 kN Schub reichen aus, 18 t gegen die Erdgravitation zu beschleunigen. Dei Stufe wiegt aber 40 t, dazu kommt noch die Nutzlast. Sie fällt daher solange bis sie

Je höher die Nutzlast ist, desto größer der Buckel desto ungünstiger ist eine schwere Stufe. Die errechneten Gravitationsverluste betragen rund 2000 bis 2300 m/s. Ist die Stufe kleiner, so kann so die Nutzlast höher sein, man kann die Stufe aber schlecht für alle drei Versionen optimieren. Mit einer nur 32 t schweren Stufe (Trockenmasse 3,5 t) läge die Nutzlast bei 8,6 t (zwei Booster), 10,1 t (vier Booster) und 11,8 t (fünf Booster) und damit höher. Wie man in der Grafik sieht, steigt die Rakete auch nicht so hoch – etwa 100 km weniger und so rutschen die Gravitationsverluste auf 1500 bis 1700 m/s. Eine noch kleinere Stufe bringt nicht viel mehr – eine 28 t schwere Stufe (3 t leer) ergibt bei der kleinsten Version noch 500 kg mehr Nutzlast (9 t), aber bei den größeren kaum mehr Nutzlast. Als Folge der kleineren Stufen rutschen aber maximalen Nutzlasten die Versionen näher zusammen, also von 6,8 t bis 10 t (3,2 t Unterschied) auf 9 t bis 11,8 t also nur 2,8 t Unterschied und vor allem sind nun alle Versionen größer als die größten Einzelsatelliten. So verwundert es nicht, das die ESA nur eine Version andachte.

Hier die Daten der Raketen mit 32 t schweren Stufen:

Rakete: Ariane PPH3

Startmasse
[kg]

Nutzlast
[kg]

Geschwindigkeit
[m/s]

Verluste
[m/s]

Nutzlastanteil
[Prozent]

Sattelpunkt
[km]

Perigäum
[km]

Apogäum
[km]

711.171

8.500

10.281

1.653

1,20

130,00

200,00

36000,00

Startschub
[kN]

Geographische Breite
[Grad]

Azimut
[Grad]

Verkleidung
[kg]

Abwurfzeitpunkt
[s]

Startwinkel
[Grad]

Konstant für
[s]

Starthöhe
[m]

Startgeschwindigkeit
[m/s]

8.601

5

90

2.000

220

90

5

20

0

Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez. Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

3

167.122

14.400

2.736

2866,9

3079,2

135,70

0,00

2

1

167.305

14.583

2.736

2866,9

3079,2

135,70

136,00

3

1

32.000

3.500

4.500

180,0

180,0

712,50

272,00



Rakete: Ariane PPH4

Startmasse
[kg]

Nutzlast
[kg]

Geschwindigkeit
[m/s]

Verluste
[m/s]

Nutzlastanteil
[Prozent]

Sattelpunkt
[km]

Perigäum
[km]

Apogäum
[km]

879.422

10.100

10.281

1.628

1,15

130,00

200,00

36000,00

Startschub
[kN]

Geographische Breite
[Grad]

Azimut
[Grad]

Verkleidung
[kg]

Abwurfzeitpunkt
[s]

Startwinkel
[Grad]

Konstant für
[s]

Starthöhe
[m]

Startgeschwindigkeit
[m/s]

11.468

5

90

2.000

220

90

5

20

0

Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez. Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

4

167.025

14.303

2.736

2866,9

3079,2

135,70

0,00

2

1

167.222

14.500

2.736

2866,9

3079,2

135,70

136,00

3

1

32.000

3.500

4.500

180,0

180,0

712,50

272,00



Rakete: Ariane PPH5

Startmasse
[kg]

Nutzlast
[kg]

Geschwindigkeit
[m/s]

Verluste
[m/s]

Nutzlastanteil
[Prozent]

Sattelpunkt
[km]

Perigäum
[km]

Apogäum
[km]

1.047.147

11.800

10.281

1.546

1,13

130,00

200,00

36000,00

Startschub
[kN]

Geographische Breite
[Grad]

Azimut
[Grad]

Verkleidung
[kg]

Abwurfzeitpunkt
[s]

Startwinkel
[Grad]

Konstant für
[s]

Starthöhe
[m]

Startgeschwindigkeit
[m/s]

14.335

5

90

2.000

220

90

5

20

0

Stufe

Anzahl

Vollmasse
[kg]

Leermasse
[kg]

Spez. Impuls (Vakuum)
[m/s]

Schub (Meereshöhe)
[kN]

Schub Vakuum
[kN]

Brenndauer
[s]

Zündung
[s]

1

5

166.825

14.103

2.736

2866,9

3079,2

135,70

0,00

2

1

167.222

14.500

2.736

2866,9

3079,2

135,70

136,00

3

1

32.000

3.500

4.500

180,0

180,0

712,50

272,00

Offen muss bleiben, ob dies vielleicht die „bessere“ Ariane 6 wäre. Erstaunlicherweise waren aber zumindest die Entwicklungskosten höher: Man setzte damals 1 Mrd. mehr an, als die heutige Version kostet. Warum, das entzieht sich meiner Erkenntnis, denn es sind ja dieselben Booster wie heute, eine ähnlich schwere Oberstufe. Dagegen musste man für Ariane 62/64 das Vulcain vereinfachen, um es preiswerter zu machen und die zentrale Stufe neu konstruieren. Also von der Logik her sollte das PPH-Konzept eigentlich die geringeren Entwicklungskosten haben.

7.3.2021: Die Lösung für ein überflüssiges Problem – wie misst man die Oberflächentemperatur der Venus?

Die Venus ist der unwirtlichste Planet unter den erdähnlichen Planeten (die anderen vier kann man mangels feste Oberfläche schlecht vergleichen). Keine Raumsonde hat bisher über 127 Minuten lang auf der Venusoberfläche überlebt. Doch dem war nicht immer so. Seit es Teleskope gab, wurde die Venus beobachtet und lange Zeit wurde sie als erdähnlicher als der Mars angesehen. Im Teleskop erscheint die Venus völlig strukturlos. Nähert sie sich der Erde und nähert sie in Sichtlinie Sonne-Erde so sieht man im Teleskop an den Polen, dass die Spitzen weiter führten, als sie eigentlich sein sollten. Das Phänomen „Lomonossow Effekt“ wurde vom gleichnamigen Gelehrten während eines Venustransists richtig erkannt: eine Atmosphäre umgibt die Venus und sie ist so dicht, das sie das Licht bricht und so von der beschienen Seite auf die Dunkelseite umlenkt. Bei einem Venus-Transit umgibt die Atmosphäre dann die Venus als ein Ring. Auch die strukturlose Oberfläche wurde bald als eine vollständig geschlossene Wolkendecke interpretiert.

Zudem war die Venus größer als der Mars und näher an der Sonne als die Erde. Man nahm an das die Wolken, wie bei der Erde aus Wasserdampf bestehen. Das sie so dicht sind, deutet darauf hin, das es auf der Venus viel Wasser gibt und es warm ist, sonst würde nicht so viel verdampfen. Das Klima sollte schon wegen der Sonnennähe wärmer als auf der Erde sein. Es wäre dort subtropisch warm. Manche Autoren spekulierten sogar über Leben auf der Venus. So wurde gemutmaßt das durch das Klima die Evolution dort Reptilien und Amphibien bevorzugt hat, die anders als Säugetiere wechselwarm sind und auf der Erde vor allem in warmen Klimazonen vorkommen. Manche Autoren beobachteten periodische Aufhellungen der Venus. Das wurde von einigen als gigantische Feuer gedeutet, die ein Herrscher für Feiern anzündet und die sich in den Wolken spiegeln.

Erst das Zwanzigste Jahrhundert lies diese Erkenntnis bröckeln und führt dazu, das schon vor dem Start der ersten Raumsonde die meisten Experten die Ansicht vertraten, dass es auf der Venus kein Leben gibt und sich die Suche nach Leben im Sonnensystem auf den Mars verschob,

Im selben Jahr passierte die erste Raumsonde die Venus, Mariner 2. Sie lieferte Daten, die auf eine Oberflächentemperatur von 130 Grad Celsius hinwiesen. Doch wie hat man dies gemessen?

Die berührungslose Temperaturmessung funktioniert nach einem einfachen Prinzip. Jeder Körper, der eine Temperatur größer als der absolute Nullpunkt von 0 K (=-273,15 Grad Celsius) hat, gibt Strahlung ab. Gemäß einem einfachen Gesetz ist das Maximum also die Wellenlänge bzw. Frequenz, bei der am meisten Strahlung abgestrahlt wird, von der Temperatur abhängig. Die Sonne hat eine Temperatur von 5780 K und ein Maximum bei einer Wellenlänge von 550 nm. Ein Körper, der zehnmal "kälter" ist, also 578 K heiß (immerhin immer noch 305 Grad Celsius heiß) strahlt die meiste Energie bei 5.500 nm ab, das liegt im mittleren, thermischen Infrarot. Ein Körper mit einer Temperatur von 20 Grad Celsius, wie die Erde hat sein Strahlungsmaximum bei 10,8 µm. Durch Messung der Infrarotstrahlung kann man also auf die Temperatur schließen. Doch ganz so einfach ist es nicht. Ein Körper gibt nicht nur in diesem Bereich Strahlung ab, sondern auch es ist eine Verteilungskurve. Vor allem aber gibt ein wärmerer Körper auch in dem Bereich Strahlung ab in dem man das Maximum eines kälteren Körpers vermuten würde, und zwar mehr als dieser abstrahlt.

Die zweite Einschränkung und die bedeutendere ist die, das Die Strahlung auch absorbiert werden kann. Im visuellen Bereich können wir das wahrnehmen und kennen auch den Effekt. Ist der Himmel wolkenbedeckt, so kühlt nachts die Erde weitaus weniger aus als bei klarem Himmel. Im sichtbaren Bereich ist es relativ einfach. Ist etwas durchsichtig, so absorbiert es kaum Strahlung, ist etwas undurchsichtig so absorbiert es Strahlung. Leider korrespondieren diese Eigenschaften nicht mit anderen Wellenlängen. Das Paradebeispiel ist Glas. Glas ist für uns durchsichtig, doch nur im sichtbaren Bereich. Infrarotstrahlung lässt Glas ab 2 µm Wellenlänge kaum passieren. Auf diesem Effekt beruht auch die Namensgebung des „Treibhauseffektes“, der früher auch „Glashauseffekt“ genannt wurde. Sonnenstrahlung kann in ein Gewächshaus mit Glaswänden herin, doch die Wärmstrahlung des Bodens im Bereich von 11 Mikrometern kann nicht raus, es wird dort wärmer. Übrigens ist Glas auch undurchlässig im UV Bereich, falls ihr mal, wie mein Bruder versuchen wollt, unter einem überglasten Balkon ein Sonnenbad zu nehmen, um braun zu werden und euch über den ausbleibenden Erfolg wundert. Das Bild links zeigt die Transmission, das ist 100 % -Absorption von Borsilikatglas, einem Laborglas. Normales Fensterglas hat aber ähnliche Eigenschaften. Umgekehrt kann eine Atmosphäre, die im visuellen undurchsichtig ist, im Infraroten in bestimmten Spektralbereichen durchlässig sein. Rechts gibt es zwei Aufnahmen von Titan von Cassini. Eine im sichtbaren Bereich und eine im Infraroten. Man erkennt im Infraroten Oberflächenstrukturen, wenngleich durch die dicke Atmosphäre auch nicht scharf. Inzwischen weiß man auch das selbst die dichte Venusatmosphäre teilweise durchlässig ist. VIRTIS, ein abbildendes Spektrometer an Bord von Venus Express erkannte in bestimmten Bereichen Formationen, die an die Aufnahmen von Radarsatelliten erinnerten und erst kürzlich veröffentlichte die NASA eine Venus Aufnahme der Parker Solar Probe im Infraroten die die Umrisse von Aphrodite Terra zeigen soll.

Für Mariner 2 welche die Temperatur der Venus messen sollte lies man sich daher zwei Instrumente einfallen die in verschiedenen Wellenlängenbereich arbeiten sollten und sich ergänzen sollten. Das eine Instrument war ein Infrarotradiometer. Es bestand im wesentlichen aus einem kleinen Teleskop in dessen Brennpunkt ein hochempfindlicher Temperaturmesssensor lag. Es war ein dotierter Germaniumkristall, dessen elektrische Leitfähigkeit schon bei geringer Erwärmung stark anstieg. Filter ließen nur zwei Wellenlängenbereiche bei 8,4 und 10,4 Mikrometer passieren. In diesen Bereichen würde ein Körper mit +30 und +100 Grad jeweils das Absorptionsmaximum haben. Wäre die Atmosphäre in diesen Bereichen durchlässig, so könnte man mit dem Instrument die Oberflächentemperatur bis zu einem Maximum von 500 K messen können. Das Minimum betrug 200 K, also ein Bereich zwischen 70 und +230 Grad. Die Genauigkeit betrug nach Messungen vor dem Vorbeiflug etwa 2 Grad Celsius.

Das zweite Instrument basierte auf der Entdeckung von 1956, dass kurzwellige Radiowellen die Atmosphäre durchdringen können. Mariner 2 bekam eine parabolförmige Antenne, die Mikrowellen in einen Brennpunkt bündelte. Dort befanden sich zwei Empfänger mit Frequenzen von 15,8 und 22,2 GHz entsprechend einer Wellenlänge von 13.500 und 19.000 Mikrometern, also um den Faktor 1000 höher als beim Infrarotradiometer. Da das Emissionsspektrum aber praktisch sich noch weit in den langwelligen Bereich erstreckt (aus dem Grund werden Empfänger für die schwachen Signale von Raumsonden auch aufwendig gekühlt) kann man auch aus diesem Spektrum die Temperatur ableiten. Auch hier waren es zwei Bänder, weil eines alleine eine zu geringe Aussage hat, denn natürlich emittieren in dem Bereich alle Körper. Da die Kurve aber für jede Temperatur anders abnimmt, kann man durch Vergleich der Intensitäten bei zwei Bereichen hochrechnen, welche Temperatur die abnahme entspricht,

Es lohnte sich, beide Instrumente einzusetzen. Denn das Infrarotradiometer maß nur eine Temperatur von 240 K, entsprechend -33 Grad Celsius. Die Wissenschaftler folgerten daraus, dass dies nicht die Temperatur der Venus sein konnte, sondern die der Wolkenobergrenze. Das war korrekt. Die Venuswolken haben ihre Obergrenze zwischen 65 und 70 km Höhe bei Temperaturen von -30 bis -43 Grad Celsius. Das Infrarotradiometer machte drei Scans, einen über die Nachtseite (gemessen wurden 400 K) einen über den Terminator (gemessen wurden 570 K) und einen über die Tagseite dort wurden 460 K gemessen. Die Messung von Temperaturen weit jenseits des Strahlungsmaximums ist schwierig, noch dazu mit den bescheidenen Mitteln, die durch die Massen, Datenraten und Strombegrenzung von Mariner 2 folgerten. So waren die Messungen des Mikrowellenradiometers auch nur auf 15 % genau, sprich die gemessenen 400 K konnten auch 340 oder 460 K sein. Aus den Messungen folgerte man auf eine deutliche Randverdunklung. Dieser optische Effekt führt bei Bildern der Sonne zu einer Verdunklung der Ränder, weil die Strahlung dort eine dickere Schicht durchqueren muss. Bei einer Atmosphäre, die Licht schluckt, führt dies zur Aufheizung an der Grenze zwischen Tag und Nacht. Das ist der einzige Zeitpunkt, wo das Sonnenlicht die ganze Atmosphäre durchquert, (Tag und Nachtseite) ohne auf die Venusoberfläche zu treffen. Da der doppelte Weg so zurückgelegt wird, kann sich die Atmosphäre dort besonders hoch aufheizen. Weiterhin war klar, dass es kaum Unterschiede zwischen Tag- und Nachtseite gab. Der wissenschaftliche Report der erst 1965 veröffentlicht wurde schloss aus den Messungen auf eine Oberflächentemperatur von 400 K, also rund 130 °C, obwohl er erwähnt, dass Messungen der Radiostrahlung mittel irdischer Radioteleskope eher für eine Temperatur von 600 K, also 330 °C sprechen.

Wie wir heute wissen, waren beide Werte zu niedrig. Die mittlere Temperatur an der Oberfläche liegt bei etwa 480 °C oder 723 K. Der zu niedrige Wert wurde übrigens nicht von allen als zuverlässig angesehen und zwar hielten viele ihn für zu hoch. Russische Wissenschaftler glaubten nicht daran und legten die Sonden der Generation 3MV (Venera 2+3 und Kosmos 96) für eine maximale Temperatur von 77 °C aus. Diese Sonden starteten 1965. Erst bei der nächsten Generation, 4V ging man auf 350°C. Da die Sonden aber auch nur für einen Druck von maximal 10 Bar ausgelegt wurden fielen sie aus, bevor überhaupt die Region mit dieser Temperatur erreicht wurde.

Zum Nachlesen: NASA SP-59 Mariner Venus 1962 Final Report

8.3.2021: Corona-Schnelltests

Ich habe mich bisher im Blog mit Kommentaren hinsichtlich der Coronastrategie der Bundesregierung und den 16 Landesfürsten, die jeweils eigene Süppchen kochen, dezent zurückgehalten. Im Prinzip kann man da es Änderungen im Wochenabstand gibt auch wöchentlich, was dazu schreiben. Das ganze Konzept ist voller Widersprüche. Vor allem ist es unlogisch. Da öffnen Friseure wo man engen Kontakt, ja Hautkontakt hat und andere Geschäfte, wo man Abstandsregeln viel besser einhalten kann, bleiben zu. Oder ketzerisch formuliert: wenn die Friseure aufmachen, könnten auch die Bordelle wieder öffnen. Viel mehr Kontakt gibt es dort auch nicht, zumindest ist er meist kürzer ;-)

Nun sollen Museen, botanische Gärten und Zoos öffnen können, Schwimmbäder, an denen ich interessiert bin, bleiben aber zu. Dabei geht es in beiden Fällen um die Beschränkung der Besucherzahl und Abstände und im Schwimmbad wo jeder ja Platz haben will sind die besser einzuhalten als vor einem Van Gogh Gemälde oder dem Menschenaffenkäfig, wo alle hinwollen. Zudem ist das Wasser gechlort und Chlor auch in der Atmosphäre und Chlor tötet auch Viren zuverlässig durch Oxidation ab.

Diese Woche nun die Ankündigung von Schnelltests als Bestandteil einer Strategie für „mehr Normalität“. Auf den ersten Blick sieht das logisch aus – man kann mehr öffnen, wenn die Leute vor Ort einen Schnelltest machen. Gut, die Probanden müssen dann immer noch 15 Minuten warten, bis das Messergebnis da ist. Aber dann kann man rein. Wenn die Schnelltests wirklich zuverlässig wären, dann müsste man, da ja alle negativ getasteten nicht infiziert wären, nicht mal Abstände einhalten. Leider sind sie das nicht, sodass die anderen Regeln weiter in Kraft bleiben müssen. Es soll auch einen kostenlosen Selbsttest pro Woche für zu Hause geben. Reicht für einen gelegentlichen Besuch in der Galerie oder Shopping, wäre für mich, da ich dreimal pro Woche Schwimmen gehe, zu wenig.

Das Konzept ist aber nicht zu Ende gedacht. Denn was ist mit den positiv getesteten? Bisher lief das so, das die Tests seitens offizieller Stellen erfolgten. z.B. weil jemand infiziert war und man nun alle Personen testete, mit denen er in Kontakt war. War jemand da positiv, musste er in die Quarantäne und manchmal wurde die auch kontrolliert. Doch was passiert, wenn ich einen positiven Test vor einem Einkauf habe? Der Geschäftsinhaber wird sicher nicht das Gesundheitsamt verständigen. Ob ich mich dann freiwillig in Quarantäne begebe oder nicht, ist meine Sache. Erst recht ist das bei Selbsttests, die jeder selbst kaufen und dann natürlich zu Hause machen kann, so. Für die sehe ich auch keinen rechten Sinn, außer der die Neugier zu befriedigen, Denn sie nutzen ja nicht mal was, wenn ich sie nutzen will, um wo hinzugehen, wo ein Test erforderlich ist und ich mir die Wartezeit sparen will. Wie will man dort kontrollieren, ob der Test von heute ist, und nicht schon von gestern. Trotzdem waren die Selbsttests, obwohl nicht gerade billig – 25 Euro für fünf Tests – bei ALDI, nach Medienberichten, schon kurz nach Ladenöffnung ausverkauft.

Ja Corona-Leugner und andere Idioten, die meinen, Corona wäre gar nicht so schlimm und alle Vorsichtsmaßnahmen nur Schikane, könnten auf die Idee kommen bei einem positiven Selbsttest dann gerade Menschenmassen aufzusuchen, die es nach wie vor gibt, vor allem beim öffentlichen Nahverkehr. Einfach mal den ganzen Tag Bus oder S-Bahn Fahren und schon ist man ein Super-Spreader wie das neudeutsch heißt (ich würde es als „infektiöser Depp“ eindeutschen).

Eine Zwangsmeldepflicht für alle, die einen Selbsttest anbieten um ihr Geschäft am Laufen zu halten, will ja niemand und mit der freiwilligen Eintragung der persönlichen Daten in Listen wie bei der Gastronomie im letzten Sommer klappt es ja auch nicht. Viele nahmen das nicht ernst und gaben falsche Angaben oder Fantasienamen dort an.

Meine Meinung: Wie immer im letzten Jahr ein Konzept bei dem mann nur die Hälfte durchdacht hat, oder frei nach Schiller: Das war kein Heldenstück, Angela!



 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99