Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 388: 16.6.2014 - 19.6.2014

16.6.2014: Methan vs. Kerosin

Da Niels sich ja mit dem Thema beschäftigt hat und es auch durch Jewgeni-7 hier angesprochen wurde und nun auch SpaceX ein LOX/Methan Triebwerk am Stennis Test Center testen will, will ich mich mit dem Thema auch mal beschäftigen. Ich hatte ja Methan schon mal verglichen mit Wasserstoff. Mit diesem hat er auch einiges gemeinsam, er ist eine kryogene Flüssigkeit und er hat ein geringe Dichte. Noch mehr Gemeinsamkeiten gibt es mit Kerosin und bei allen Projekten ist es ja ein Ersatz oder eine Nachfolgetechnologie für LOX/Kerosin. Fangen wir also mal an mit den Gemeinsamkeiten und Unterschieden zu Kerosin:

Gemeinsamkeiten:

Unterschiede

Deutlich höher sind die unterschiede zu Wasserstoff

 Fangen wir am besten an, was bei Wasserstoff die technischen Herausforderungen sind:

Durch den geringen Bereich in dem der Wasserstoff flüssig ist und das hohe Volumen sind die Anforderungen an die Isolation viel höher als bei LOX, die Tanks sind zudem sehr voluminös. Das macht, wenn man nicht hohe Strukturmassen tolerieren will, eine Leichtbauweise notwendig. Das große Volumen setzt hohe Anforderungen an die Turbopumpe, die meist extrem hohe Drehzahlen erreichen müssen. Das ist mit einer kombinierten Turbopumpe nicht möglich, daher gibt es getrennte Systeme für die Förderung von LOX und LH2. Für die Druckbeaufschlagung wird meist Helium eingesetzt, das in eigenen Druckgasflaschen mitgeführt wird, das Leergewicht weiter steigert und nicht gerade billig ist. Die Schmierung von Teilen geht dann auch meist nur mit Wasserstoff, was angesichts dessen, dass er durch alle Metalle diffundieren kann und deren Materialeigenschaften verändert, den Aufwand erhöht. Bei der Kühlung der Brennkammer verdampft der Treibstoff fast sofort, als Gas transportiert er weniger Wärme und es steht weniger Treibstoff für die Kühlung zur Verfügung. Umgekehrt erfolgt die vollständige Reaktion viel schneller als bei Kohlenwasserstoffen, wodurch die Brennkammern kleiner sein können und mehr Hitze abgeführt wird.

Kurzum: Wasserstoff liefert deutlich mehr Nutzlast, macht die Konstruktion aber deutlich aufwendiger.

Methan ist nun zwar eine kryogene Flüssigkeit, aber wie LOX in einem größeren Temperaturintervall von 20 (anstatt 7) Kelvin flüssig und dies sogar bei höherer Temperatur (LOX: Schmelzpunkt -222°C, Siedepunkt: -182°C). Durch die geringe Dichte sind die Tanks größer, aber das Mischungsverhältnis ist auch größer, sodass im Endeffekt das Gesamtvolumen nicht viel größer ist. So sind auch Fördervolumen in der gleichen Größenordnung. Turbopumpen haben ähnliche Drehzahlen und können mit einem gemeinsamen Schaft betrieben werden. Das vereinfacht die Konstruktion.

Die Brennkammern haben dieselbe Größe wie bei LOX/Kerosin und die Kühlung ist nicht ganz so kritisch wie bei LH2, aber nicht so einfach wie bei Kerosin, dass sich über 200° erhitzen kann bis es verdampft (je nach gewählter Fraktion). Als Schmierstoffe können dieselben wie bei LOX eingesetzt werden.

In der Summe sind die Anforderungen höher als bei Kerosin, aber nicht um Größenordnungen wie bei LH2. Der Gewinn (in Form der Nutzlast) ist in etwa der gleiche wie bei LOX/Kerosin beim Übergang vom Nebenstrom zum Hauptstromverfahren (der spezifische Impuls ist zwar im Verhältnis höher, aber das Tankvolumen auch, was dann wieder etwas Performance wegfrisst. Beim Wechsel des Antriebsverfahrens dürfte der Technologiesprung aber deutlich höher sein als nur beim Wechseln des Verbrennungsträgers.

Das Diagramm zeigt die Simulation mit freiem chemischen Gleichgewicht, diese Werte sind immer besser als die realen, man sieht dies bei dem höchsten spezifischen Impuls von 3700 bei LOX/RP1. Die Simulation ging von einem Brennkammerdruck von 60, unendlich großer Brennkammer und Expansionsverhältnis von 15 (spez. Impuls Meereshöhe) und 150 (spezifischer Impuls Vakuum) aus.

Die Kurven sind recht nahe beieinander. Der Unterschied liegt meist bei 100-120 m/s. Das Maximum verschiebt sich bei Methan, da es wasserstoffreicher ist. Je nach Annahme der Technologie (Hauptstromverfahren / Nebenstromverfahren, niedrige Strukturfaktoren oder hohe) ist der Gewinn an Nutzlast minimal oder leicht bis mittel. Das muss abgewogen werden gegenüber dem Aufwand für die Technologie. gibt es schon Erfahrungen damit so wird man sicher darauf setzen. Das kann man in der Sowjetunion als gegeben ansehen, nachdem man dort über Jahrzehnte LOX//RP1 Triebwerke entwickelt hat und auch Experimentaltriebwerke für LOX/LNG. Wenn man, wie zumindest Rocketdyne, das letzte LOXC/RP1 Triebwerk in den Sechzigern entwickelt hat, wird der Sprung weitaus höher sein.

17.6.2014: Die Sache mit den Gigaflops

Da ich gerade in loser Reihe mich mit den Supercomputern von Cray beschäftige und dann in der letzten ct' noch der Artikel "Matrix reloaded" erschien möchte ich an deiser stelle mal was zu der realen und theortischen Geschwindigkeit auf sich hat.

Bei Supercomputern aber auch Großrechnern hat sich da die Angabe der Fließkommaoperationen pro Sekunde eingebürgert. Früher meist Megaflops, heute pro Prozessor Gigaflops und pro Rechner können es schon Teraflops sein. Das Maß ist auch für den Laien gut verständlich: Ein "FLOP" so die Abkürzung ist eine Rechnung pro Sekunde, entspricht also im täglichen Leben einem Druck auf die Taschenrechnertasten + - * / oder einer längeren Anstrengung des Kopfes. Das F steht für Fließkommazahlen, denn es gibt auch die Ganzzahlrechnungen, die man zweckentfremden zur Festpunktarithmetrik nutzen kann. So wird aus einer 20 Stelligen Ganzzahl eben dann eine 16 Stellige mit 4 Stellen hinter dem Komma. Nachteil dieses Verfahrens ist, dass man nicht sehr große oder sehr kleine Zahlen verarbeiten kann.

Bei allen Rechnern wird die Geschwindigkeit in FLOPS leicht angegeben: Wie viele dieser, kann man maximal zu einem Zeitpunkt ausführen. Als Beispiel greife ich auf eine Cray 1 zurück, weil es bei der noch sehr einfach war und es keine Caches oder andere Features gab die das Ergebnis verfälschen. Die Cray 1 konnte in Vektoroperationen gleichzeitig eine Addition und Multiplikation durchführen und erreichte so 2 Flops pro Takt. Das war bei 80 Millionen Takten pro Sekunde dann 160 MFlops.

Doch das Beispiel zeigt auch schon wo der Hase im Pfeffer ist. Denn es gilt nur für Vektoroperationen, sprich dass man für ganze Felder von Zahlen die gleiche Operation durchführt. In FORTRAN wäre das bei diesem Codebeispiel der Fall:

    COMMON A(64),B(64),C(64),D(64)
    DO 10,I=1,64
    D(I)=A(I)*B(I)+C(I)
10 CONTINUE

Dieses Beispiel ist in FORTAN, weil Cray Research einen FORTRAN Compiler mit "Autovektorisierer" bereitstellte, der bei solchen Schleifen die Vektoroperationen automatisch durchführte. In diesem Falle werden die Daten in die Vektorregister geladen, die Multiplikation läuft mit A(1) und B(1) an und im nächsten Takt kommt dann die Addition von C(1) und dem Ergebnis hinzu während parallel A(2= * B(2) berechnet wird. Für i=2 bis 63 arbeiten so beide Recheneinheiten parallel. Diese Technik nennt man Chaining.

Das ist aber nicht die reale Geschwindigkeit dieses Benchmarks. Denn zum einen haben die Operationen eine Vorlaufzeit: Sie müssen dekodiert und die Ausgangswerte an die Funktionseinheiten übergeben werden. Die letzte Operation hat auch noch eine Nachlaufzeit in der das letzte Ergebnis ins Zielregister geschrieben wird. Dies addiert 5 Takte bei der Addition und 6 bei der Multiplikation. Für 64 werte (das Maximum was die Register fassen) braucht man so 70 Takte.

Doch die werte müssen erst in das Register kommen und vom Register die Ergebnisse auch wieder in den Hauptspeicher kommen. Das Laden eines Vektorregisters dauert 81 Takte. Hier haben wir 4 Lade- und einen Speichervorgang, dass addiert, wenn man die Zahlen nicht für andere Operationen braucht 5 x 81 Takte. Dagegen entfallen auf die Schleife keine weiteren Operationen, denn die wird beim Vektorisieren gar nicht ausgeführt. Es muss aber in einem Befehl noch angegeben werden wie viele Vektoroperationen durchgeführt werden, das addiert noch ein paar Takte. Im Worst Case würden die 128 Flops hier also 480 Takte brauchen, das wären dann nur noch 21,3 MFlops.

So was beobachtet man auch in Wirklichkeit. Im Livermoore Forschungslabor hat man genau untersucht, wie schnell die Rechner sind und hat aus existierenden Programmen zwischen 6 und 73 MFlops herausgebracht. Das obige Beispiel ergab in Übereinstimmung mit den theoretischen Werten 22 MFLOP. Der LINPACK Benchmark der heute Standard für Tests ist ergab bei n=300 rund 34 MFLOPs.

Noch schlechter sieht es aus, wenn nicht Vektoroperationen durchgeführt werden, sondern einzelne Zahlen also keine ganzen Arrays bearbeitet werden. Dann braucht eine Cray 1 rund sechsmal so lange, auch ist ein Skalarregister erst in 14 Takten geladen. Es handelt sich also um eine typische Peakperformanceangabe.

Nun ein Sprung zu heute. Im obigen Artikel stellte Andreas Stiller einen Laufzeitunterschied in einem Benchmark vom Faktor 1000 fest - da ist die Geschwindigkeitseinbuße der Cray 1 oben vom Faktor 10 doch ein Pappenstiel. Dabei handelte es sich nicht um einen Uralt-Compiler verglichen mit dem neuesten Exemplar, sondern um den aktuellen von Visual Studio mit Intels C++ Compiler. Kernstück ist folgendes Codestück, dem obigen Forttran Code recht ähnliches:

#define DIM 1024
typedef double mat[DIM][DIM];

mat a,b,c;

void clear()

{
   for (int i=0; i < DIM; i++)
   for (int j=0; j < DIM; j++)
   {
	c[i][j] = 0.0;
	b[i][j] = i*1.2;
	a[i][j] = j*1.1;
   }
}



int _tmain(int argc, _TCHAR* argv[])
{
   clear();
   for (int k=0; k < DIM; k++)
   for (int j=0; j < DIM; j++)
   for (int i=0; i < DIM; i++)
   {
	c[i][j]+= a[i][k] * b[k][j];
   }

Nur vom letzte Teil nach Clear (der Initialisierung) wird für die GFLOP Berechnung benutzt und auf einem schnellen iCore i7-4750 HQ Prozessor (3,2 GHz, 4 Kerne, Hyperthreading) kam beim Microsoft Compiler 0,126 GFlops und beim Intel Compiler 138 GFlops - als Extremwerte.

Diese eine Zeile in drei Schleifen hat es in sich. Bei den Compilern, die verwendet wurden, ist die Schleifenanordnung k-j-i so angelegt, dass sie die optimale Anordnung der Compiler für die Arrayelemente umgeht. Diese legen die Elemente einer Spalte hintereinander an, die innerste Schleife läuft bei zwei der drei Matrizen aber über die Zeilen. Dadurch sind Caches weitgehend unwirksam. Der Hauptspeicher ist aber um Längen langsamer als die Caches. Ändert man die Reihenfolge auf i-j-k ab, so steigt die Performance von 0,126 auf 3,2 GFLOPS. Das ist übrigens compilerabhängig, denn bei meinem Borland war eine andere Reihenfolge die schnellste.

Das ist die Performance pro Kern mit skalaren Operationen. Nun gibt es die Erweiterung AVX2. Die kann vier Werte gleichzeitig bearbeiten. Das ergibt die vierfache Performance. Beim "Autovektorisieren" ist mit Microsofts Compiler aber nur eine Steigerung um 25 bis 50% drin. Über einen Compilerschalter nutzt der Compiler alle vier Prozessoren ohne das der Programmierer seinen Code ändern muss ihn z.b. in parallellaufende Threads aufteilt. Beim Microsofts Compiler kommt man so auf maximal 28,9 GFLOPS, bei Intel sogar auf 62 GFLOPS. Der Prozessor hat vier Kerne die sogar 8 Threads parallel verarbeiten können.

Das letzte ist dann noch die Benutzung des Fused AddMultiply Befehls, der in einem Rutsch die Multiplikation und Addition durchführt und so die Performance nochmals verdoppelt. Den Maximalwert von 138 GFlops erhielt man durch den Aufruf einer Bibliotheksfunktion für Matrixmultiplikation welche alle Tricks implementierte, also nicht mit eigenem Code. Theoretisch sollte der Prozessor 204,8 GFLOP erreichen.

Der Artikel ist lesenswert, auch weil er zeigt, das viele Compilerflags nicht den Code schneller achten und schon kleine Änderungen an vorgeschlagenen Geschwindigkeitsoptimierungen die Performance wieder ins Bodenlose fallen lassen

Und das alles bei einer Programmzeile, in drei einfachen Schleifen. Man kann sich dann mal vorstellen, was dann erst passiert wenn der Code etwas komplexer ist. Man wird wohl nicht erwarten dass Programmierer füpr jede Codezeile im kopf haben wie man sie am besten formuliert, damit der Compiler den schnellsten Code erzeugt Es verwundert daher nicht wenn man im Supercomputerbereich das uralte FORTRAN nimmt, bei denen man nicht so vieles einstellen kann, viel weniger Optionen bei der Variablendeklaration und Parameterübergabe gibt. Weiterhin gibt es für die Supercomputer oft auch FORTRAN Compiler mit proprietären Erweiterungen um die Parallelisierung zu unterstützen.

Der Endverbraucher hat vond en Optimierungen nichts. erst rechts nichts von Erweiterungen wie AVX, die im obigen Beispiel erst den Perfromanceboost um den Faktor 4-7 brachte. Denn damit würde der Code dann nicht mehr unter älteren Rechnern oder neuen CPU ohne dieses Features (Celerons oder Atoms) laufen. Softwarehersteller verzichten daher darauf.

Die sehr schlechten Fähigkeiten von Compilern schnellen Code zu erzeugen führten auch zum Aus von zwei Intel Prozessoren: dem i860 und Itanium. Beide setzten die VLIW Technologie ein, bei der der Compiler befehle so umgruppiert, dass sie unabhängig voneinander ausgeführt werden können und so alle Recheneinheiten optimal auslasten. Das war jedoch nur selten der Fall. Aus dieser Sicht wäre es am besten man würde zurückgehen zu einem einfachen Instruktionssatz, vielen Registern, damit man bei den vielen heutigen kurzen Funktionsaufrufen möglichst viele Parametern in den Registern halten kann und dann vielleicht mehr Kernen die parallel arbeiten können.

RISC ist nichts neues, es gab schon immer Rechner mit einfachen Instruktionen ohne Spezialregister und ohne Spezialbefehle. Aber der Begriff kam erst in den Achtzigern auf, als eine Auswertung von Compilercode zeigte, das bei den üblichen CISC Architekturen die Compiler 80% des Codes mit 20% der Befehle erzeugten. Die vielen Spezialbefehle (die restlichen 80%) wurden also selten benutzt und so sollte RISC Code Compiler freundlich sein. Leider konnte sich keine RISC Architektur auf lange Zeit gegen Intels Marktmacht durchsetzen - wenn man Stückzahlen im dreistelligen Millionenbereich hat, dann kann man sich komplexere Architekturen leisten die aufwendiger zu Produzieren sind, weil man über die Stückzahl die Investitionen in die Herstellung wieder hereinbekommt und Chip Herstellung ist eben im Prinzip wie Zeitung drucken - hat man einmal die Vorlage erstellt so (bei Chips: den Fertigungsprozess im Griff) so ist es egal ob man einen 8 Bit Mikrocontroller produziert oder einen 32 Bit Atom, nur die jeweils neueste Technologie die den teuersten Chips vorbehalten ist kostet mehr.

18.6.2014: Neues von SpaceX und Co

Da sich nun irgendwann mal im Juni der dritte SpaceX Start dieses Jahr ansteht, mal wieder eine kleine Aktualisierung einiger Themen rund um SpaceX. Zuerst einmal hat man bei der Firma auch erkannt dass es vielleicht nicht dumm wäre, mal das Startmanifest abzuarbeiten. Selbst Elon Musk meinte nach dem letzten Flug dass man dieses Jahr maximal 10 Flüge schaffen würde. Inzwischen hat sich der nächste Flug um mindestens eineinhalb Monate verschoben und ihr eigenes Launch Manifest weist 14 Starts für dieses Jahr aus. Nach Gwen Shotwell ist das ein Punkt, an dem man SpaceX messen wird. Immerhin gibt es nun eine nachprüfbare Aussage (die Webseite mit einem Launchmanifest, das nie eingehalten wird, kann das ja nicht sein): Ein Start pro Monat dieses Jahr (sind also noch 7 Starts) und nächstes Jahr sollen es 24 Starts sein. Den ersten teil kann man schon am 31.12.2014 nachprüfen. Meine Prognose: SpaceX schafft weder die 7 Starts (mit den schon erfolgten 9) dieses Jahr, noch die 24 nächstes Jahr.

Der Verzug hat Vor- und Nachteile für SpaceX. Ein Vorteil ist, dass es im Raumfahrtgeschäft üblich ist vom Buchungsbeginn an zu zahlen, bis zum geplanten Startzeitpunkt der ganze Start bezahlt ist. Wenn nun wie beim Orbcomm Flug dieser ursprünglich im letzten September geplant war ist das ein zinsloser Kredit über 9 Monate. Mehr noch: erst wenn der Start ansteht muss die Leistung erbracht werden. Vorher braucht man keine Rakete produzieren. Erinnert mich irgendwie an meine Vermutung vom Schneeballsystem. Derzeit scheinen Fertigungsprobleme den Einsatz aufhalten. Ja die niedliche Kuschelfirma setzt die Rakete ja auch erst seit 5 Jahren ein, höre ich schon den einen oder anderen kommentieren. Eine vernünftig designte und erprobte Rakete macht aber bei der Fertigung keine Probleme und startet auch pünktlich. Die Saturn V hatte gerade mal einen Einsatzzeitraum von 5 Jahren (und flog immer noch häufiger als die Falcon 9...).

Dann hat die Firma eine erneute Abfuhr bekommen. Die USAF hat ein Angebot abgelehnt ihre GPS-III Satelliten von SpaceX für 80 Millionen Dollar pro Stück zu starten. Das interessante ist der Zeitpunkt: Die Firma hat das Angebot am 16.8.2012 gemacht und schon am 18.9.2012 eine Absage bekommen, das ging so schnell weil sie keine zertifizierte Rakete hatte. Das war auch der Bescheid den sie bekommen hat. Nun prozessiert sie eineinhalb Jahre später gegen den ULA Vertrag. Bei der Firma scheint die Kacke inzwischen am Dampfen zu sein. anders kann ich die Vorgehensweise nicht verstehen. Wenn ich also weis dass ich keine Chance habe ohne zertifizierte Rakete, auch seit 18 Monaten weiß, dass ich nicht mal die Starts zusammenbekomme bis zum Ende der Frist für das Mitbieten, dann macht hinterher das Prozessieren keinen Sinn, außer ich bin so verzweifelt, dass ich erhoffe durch die Publicity den einen oder anderen Start zugesprochen zu bekommen (was wohl auch geklappt hat).

Wie immer bleiben viele Fragen offen. So wiegen die GPS Block III Satelliten 1660 kg. die hätte wohl auch die erste Generation der Falcon 9 transportieren können. Die hat man aber einfach eingestellt anstatt sich mit dieser für die Starts zu bewerben (und man kann mir nicht weis machen, dass man bei SpaceX nicht weiß, dass man für die Kontrakte eine zertifizierte Rakete braucht). Auf der anderen Seite hat sie ein volles Launmanifest das sie nun schon nicht abarbeiten kann. Wie will sie dann noch weitere Starts unterbringen, vor allem wenn man berücksichtigt, das das Militär ein besonderer Kunde ist, der auf fixen Startzeitpunkten besteht, was die folgenden Starts aufhält oder das Vorziehen eines kommerziellen schwer macht. Also nicht gerade das was man sich wünscht, wenn man eh mit den Starts stark im Rückstand ist.

Immerhin, der kommende Flug wird interessant. Denn er ist der mit der niedrigsten Nutzlast auf absehbare Zeit. er transportiert sechs Orbcomm OG2 Satelliten. Das sind 6 x 142 kg in einen erdnahen Orbit in den die Falcon 9 nach SpaceX Angaben 13,23 t transportiert. Nun die Umlaufbahn ist etwas höher, die Inklination auch, aber selbst bei 10-11 t Nutzlast machen die Satelliten nicht mal 10% der Maximalnutzlast aus. also wenn ich mal das zurückfliegen zum Startplatz erproben will, und dafür braucht man ja Treibstoff, dann hat man bei diesem Flug die meisten Reserven. Wird man es versuchen oder nur wieder wassern?

Na ja die Firma ist ja enorm innovativ und Elon Musk muss die Leute antreiben immer innovativ zu sein. Die Firma versteht auch nicht die Branche. Wörtliches Zitat von Gwen Shotwell:

"I believe we have to get out of this mindset that the best rocket and the best technology is the one that has stayed the same for decades," Shotwell said. "In no other industry is that the case. You can imagine the chip industry, Intel and Qualcomm, if their chips remained the same year after year. It would be a disaster.

Ja wie kann man Jahr für Jahr mit ein und derselben Rakete fliegen anstatt jedes Mal eine neu zu erfinden? Macht doch Intel auch so? Äh, warum erfindet Tesla nicht jedes Jahr ein neues E-Auto? Machen die doch auch nicht. Das kann man mit zwei Fakten beantworten: Jede Erfindung weist eine Entwicklung auf in der sie rapide an Leistung gewinnt um dann nur noch inkrementell verbessert zu werden. Das gab es auch bei den Raketen. Zwischen 1957 und 1967 wurde bei den USA der Schub der leistungsfähigsten Triebwerke um den Faktor 10 gesteigert, die LEO Nutzlast sogar um den Faktor 10000. Intel hat diese Phase übrigens auch verlassen und verbessert seine Chips nur noch inkrementell. Das zweite sind die Stückzahlen die produziert werden. Wenn ich bei Stückzahlen von einigen Exemplaren pro Jahr bin, dann wird man nicht jedes Jahr eine neue Version in Dienst stellen weil die Entwicklungskosten in keinem Verhältnis zu den Produktionskosten. Daher produziert auch die Luftfahrtindustrie Flugzeuge über Jahrzehnte nur leicht modernisiert. das gilt selbst für das Militär. Die USA werden noch lange ihre inzwischen über 40 Jahre alten F15 und F16 Jets im Einsatz belassen und die B52 dürfte wohl 70 Jahre im Einsatz bleiben.

Neues gibt es auch von CCDeV / CRS. Da gibt es die Vorschläge dass die Crewvehikle auch Fracht transportieren sollen. Boeing und Virgin Galactic möchten sich mit den bemannten Vehikeln auch um Frachttransporte bewerben. Es scheint aber keine Möglichkeit geben beides  zu kombinieren, zumindest nicht nach Ansicht der NASA. Ich halte bei den angegebenen Nutzlasten von 1100 kg für die CST-100 und 1350 kg für die Dream Chaser davon nichts. Das ist weniger als bei Orbital mit der Cygnus und die startet mit einer billigeren Rakete. Sinnvoller wäre es eher da die NASA sowieso nicht plant die sieben Sitze auszunutzen zusätzlich Fracht mitzuführen. Das sind vielleicht nicht einige Tonnen aber Kleinvieh macht auch Mist. Zumindest bei der CST-100 wäre auch ein Trunk mit Fracht denkbar, den man nach bedarf mitführt. Bei der Atlas kann man ja auch die Nutzlast leicht anheben durch einige Booster. Das wäre eine preiswerte Möglichkeit, weil das Gefährt für den Mannschaftstransport ja schon bezahlt ist. Allerdings gibt es nur wenig Fracht die man im Trunk mitführen kann, weil das keine Experimente und keine Verbrauchsgüter sein können sondern Dinge die man außen an der Station lagert (Ersatzteile für Außeninstallationen wie die Solararrays: Batterien oder Kühlmittel für die Radiatoren). Aber da die NASA ja Frachttransport und Crewtransport trennt kommt es nicht dazu, wieder einmal stellt sich die Bürokratie selbst ein Bein.

19.6.2014: Die Sache mit dem RD-180 Ersatz

Die Ukraine Krise, verbunden mit dem Protest von SpaceX gegen ULA hat nun ja einige Wellen geschlagen. Für alle die es nicht so verfolgt haben: SpaceX hat gegen ULA geklagt und dabei auch angebracht dass die Atlas das RD-180 einsetze und einer der auf der Embargoliste steht Dmitry Rogozin persönlich daran verdienen würde. Das hat sich natürlich als falsch herausgestellt, aber es hat Rogozin provoziert und er sagte man werde keine RD-180 mehr an die USA liefern und auch aus der ISS nach 2020 aussteigen, dazu weiter unten noch mehr.

In den USA hat das die Diskussion gefördert, ob man denn von Russland abhängig sein möchte und es gab sehr schnell einer erste Finanzierung durch das Verteidigungsministerium in Höhe von 100 Millionen Dollar für die Suche nach einem RD-180 Ersatz dieses Jahr und 220 Millionen nächstes Jahr. Was meiner Ansicht eher zeigt das man mit der nationalen Sicherheitskarte sofort Geldmittel bekommt, während sonst Wissenschaftsbudgets beschnitten werden. Nun hat ULA bestätigt dass sie nach Alternativen für das RD-180 suchen. Bis Herbst soll ein Design und Anbieter gewählt sein, bis 2019 die Entwicklung abgeschlossen.

Zuerst mal eine Analyse. Die USA haben derzeit noch 15 RD-180 "in Stock". Die Gespräche jenseits der Politik verlaufen nach obigem Bericht normal, sodass man im Juli sicher mit weiteren fünf bis sieben RD-180 rechnen kann, die dann planmäßig geliefert werden, Dann würden die USA genug Triebwerke für mindestens drei Jahre, je nach Startrate auch vier Jahre haben. In einem solchen Zeitrahmen müsste man dann auch die Delta 4 Produktion herauffahren können. So viele Starts beider Träger haben die USA nicht, letztes Jahr war ein Rekordjahr, da waren es 11 Stück von Delta und Atlas zusammen, das müsste eigentlich auch ein Modell alleine schaffen. Da die Delta 4 einen größeren Nutzlastbereich abdeckt müsste sie die Atlas komplett ersetzen können. Sie hat aber eine Lücke zwischen der Delta 4M und der 4H, dort liegen aber gerade die größeren Atlas 5 Derivate. Doch es gibt zum einen von Boeing auch Pläne für Versionen mit sechs oder acht GEM-60 Boostern und das RS-68B soll durch höheren Schub wird auch mehr Nutzlast bringen. Etwas bringt auch das RL-10C und eine gemeinsame Oberstufe die ja für Delta und Atlas angedacht wird, könnte sie auch noch steigern. Kurzum: es gäbe wenn man nur die Atlas betrachtet keinen Bedarf an einem neuen Triebwerk

Aber schauen wir über den Tellerrand: Orbital braucht auch ein Triebwerk in der Schubklasse, wenn auch etwas schubschwächer die die Antares, denn die NK-33 werden nicht mehr produziert. Sie haben zusammen 3456 kN Startschub, das RD-180 3827 kN. Denkt man etwas weiter so will die NASA ja mal Booster für die SLS entwickeln um die Nutzlast zu steigern. Für diese braucht man dann schon größere Triebwerke. Die Booster sollen die derzeitigen 5,5 Segment SRB ersetzen die jeweils 733 t wiegen. Sie müssen auch den fehlenden Schub der Zentralstufe aufbringen. Schon mit dem RD-180 bräuchte man mindestens 6 Triebwerke um den Schub aufzubringen den jetzt die beiden Booster bringen,

Auf der anderen Seite setzt die Antares derzeit zwei Triebwerke ein. Das erspart zum einen die Rollachsenregelung. Zum anderen würde ein Triebwerk mit dem halben Schub die Möglichkeit eröffnen eine kleinere Trägerrakete von rund 150 t Startmasse zu konstruieren. Eine solche würde mit einer kryogenen Oberstufe dann etwa 4-5 t Nutzlast transportieren können, in etwa ein Atlas Centaur D Ersatz und damit eine Lücke im US Arsenal schließen. Mit den Boostern der Atlas oder Delta könnte man dann auch die Lücke zur Atlas 401 schließen.

Von der Überlegung her wäre also ein Triebwerk mit rund 2000 kN Bodenschub wie auch 4000 kN wünschenswert. Da in den USA in Sachen Raketenentwicklung so ziemlich alles falsch läuft wird man sich wegen der SLS wohl eher für die 4000 kN Version entscheiden, wirtschaftlich sinnvoller wäre die kleinere Variante die zudem geringere Entwicklungskosten offeriert.

Doch kann man das RD-180 so einfach ersetzen? Das wird eine anspruchsvolle Aufgabe für den Triebwerkbauer. Es ist nicht der Schub, es ist ein Hauptstromtriebwerk mit extrem hohem Brennkammerdruck und spezifischem Impuls. Diese Technologie haben die USA bisher nicht bei LOX/RP-1 umgesetzt. Sie können ähnliche Werte im Nebenstromverfahren mit Methan anstatt Kerosin erreichen, doch das würde dann umbauten der Atlas und Antares erforderlich machen. In gewissen Grenzen kann man das kompensieren wenn der Schub höher ist. Dann sinken die Gravitationsverluste. Sie sinken schon bei der Atlas V von 1750 auf 1414 m/s bei der Atlas 401->431 und 2144 m/s auf 1535 m/s bei der Atlas 501->551. Der Schub der Booster bringt die Rakete schnell auf Höhe und verringert die aerodynamischen Verluste, weil man die dichte Atmosphäre schneller durchquert.

Ein höherer Schub macht aber eine noch stärkere Schubreduktion nötig, die bei der Atlas notwendig ist, weil die Oberstufe mit Nutzlast maximal 30 t wiegt. Ohne diese würde zu Brennschluss die Beschleunigung auf über 8 g ansteigen. Auch die Schubreduktion in diesem Maße gibt es bisher bei LOX/Kerosintriebwerken nicht. Das Merlin kann den Schub reduzieren aber nur um 30%, das RD-180 erreicht dagegen 60% Schubreduktion.

Zuletzt wäre dann noch die SpaceX Alternative. "Rein zufällig" hat das Raptor fast denselben Schub wie das RD-180. Der spezifischer Impuls (3053/3312 zu 3149/3560) ist sogar höher und könnte das Mehrgewicht für die größeren Methantanks kompensieren. Aber gerade wegen dem Methan wäre es eine neue Rakete nicht nur ein neues Triebwerk und ob sich Lockheed von einem Mitbewerber abhängig machen will? Wohl kaum. Zudem würde SpaceX sich wenn man der eigenen Firmenargumentation folgt (die den Einsatz des RL-10 auf zwei Trägerraketen kritisiert, weil dann ein Ausfall gleich zwei Träger lahmlegen würde) sich selbst von einem Auftrag für einen Alternativträger ausschließen, weil dann das Raptor ja auch auf zwei Trägern derselben Nutzlastklasse eingesetzt wird.

Meine persönliche Ansicht: Die USA sollten die Gelegenheit nützen den Bedarf nach einem neuen Triebwerk mit dem Aneignen von neuer Technologie zu verbinden. Dazu gehört die Erforschung neuer Verfahren wie eben dem Hauptstromverfahren bei LOX/Kerosin, dann würde die Entwicklung auch mehr Sinn machen. Methan als Treibstoff würde ich nicht anstreben, weil man sonst im Prinzip Atlas und Antares stark modifizieren müsste, das wären dann nicht mehr dieselben Träger. Sofern es möglich ist sollte man die Entwicklung aber so auslegen, dass dann der Schritt zu einem LOX/Methan Triebwerk nicht mehr so groß ist, also die Konstruktion darauf "vorbereiten". Das wäre dann eine Option für die SLS Booster oder eine neue Rakete.

Nun noch zur ISS und der Situation nach 2020. Zum einen ist da Russland nicht alleine. Innerhalb der ESA will Frankreich nach 2020 aussteigen um die Ariane 6 zu finanzieren. Italien hat schon ab 2012 seine Mittel gekürzt (Frankreich und Spanien in geringerem Maße auch, daher hat Deutschland kräftig ausgestockt um die ISS Beteiligung der ESA zu halten). Also es ist nicht unwahrscheinlich dass die ESA nach 2020 aussteigt. Was würde passieren wenn Russland aussteigt? Ich glaube kaum dass Russland dann die Module entfernt. Es wären derzeit nur drei, die entbehrlich sind: Sarja als Lagerraum und Pirsk und Poisk als Kopplungsmodule / Luftschleuse. Swesda wurde von den USA bezahlt. Ohne Sojus und Progress braucht man keine Kopplungspunkte. Die ISS würde also gut funktionieren ohne die russischen Module, selbst wenn sie entfernt würden, was ich nicht denke, denn das kostet ja zusätzliches Geld, genauso wie die Entsorgung von Columbus. Man kann die Module wegen ihrer Masse ja nicht einfach abkoppeln und in 1-2 Jahren ungesteuert verglühen lassen.

Den Crewtransport können die US-Systeme ohne Problem übernehmen. Selbst wenn es nur eines ist, so hat doch jedes mit 7 Astronauten mehr als die doppelte Kapazität der Sojus. Schwerer ist es mit der Versorgung. Nachdem schon das ATV ab 2015 wegfällt hat CRS2 Ausschreibung jetzt schon einen Bedarf von 14.250 bis 16.750 kg Druckfracht und 1.500 bis 4.000 kg Fracht außerhalb des Druckbehälters. CRS1 wird 40 t, die doppelte Menge über 5 Jahre (2012-2016) liefern. Drei bis vier Progress Flüge gibt es derzeit jährlich, das sind dann weitere 7.000 bis 10.000 kg die fehlen, je nach Zusammensetzung der Fracht und Startfrequenz. Bedenkt man das CRS1 für 40 t schon 3,5 Milliarden Dollar kostet, so dürfte die Versorgung alleine 2 bis  2,7 Milliarden Dollar pro Jahr kosten - mehr als heute der ganze ISS Betrieb und Experimente kostet. Das dürfte wahrscheinlich auch der NASA zu teuer sein, denn mit bemannten Flügen, Experimenten und Missionskontrolle kommt sie dann so in den Bereich von 4-5 Milliarden Dollar pro Jahr für die ISS. Dabei soll ja noch ein neues Raumschiff und eine Schwerlastrakete entwickelt werden bei stagnierendem Budget. Aber wie man beim RD-180 sieht, wenn jemand rausfindet dass die ISS wichtig für die nationale Sicherheit ist, dann sprudelt sich das Geld ....


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99