Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 97 : 13.1.2009-21.1.2009

Dienstag 13.1.2009: Wikipedia und das Vergessen von Information

Fast jeder den ich kenne wirft mit Links an die Wikipedia um sich wenn es um Referenzen geht. Wie zuverlässig ist die Wikipedia? Nun es gibt Untersuchungen dazu die zeigen, dass die Qualität im Durchschnitt vergleichbar ist mit anderen Lexika. Im Durchschnitt- das sind zwei Einschränkungen die es gibt. Zum einen gibt es sehr große Streuungen. Nehmen wir einmal den Eintrag über Da-Da-Da.: Erstaunlich was man das Lied schreiben kann. Doch sollte man dies mit dem Artikel über das Gemini Programm vergleichen - immerhin ein Weltraumprogramm mit über 1.2 Mrd. Dollar Kosten und welches sich über 12 Missionen und 2 Jahre hinzog. Nach Google ist der Da-DA-DA Artikel 60 k lang und der über Gemini 48 Kbyte. Es gibt also große Schwankungen in der Qualität und Quantität. Die zweite Einschränkung ist die Arbeit der Autoren: Neben der Problematik, dass so manchen Artikel lang werden und manche kurz gibt es auch die Problematik der Sachkompetenz und persönlichen Vorstellungen / Sympathien / Antipathien. Ich denke die Wikipedia ist ein gutes Informationsmedium bei allen Dingen die eine gewisse Popularität haben, da es da genügend Autoren gibt die Fehler ausbügeln und Ressentiments löschen. Meine Erfahrung bei den Bereichen, in denen ich mich auskenne, ist aber, dass hier die Luft recht dünn wird und die Infos recht karg werden. Auffällig ist auch, dass es zwar unzählige Links von der Wikipedia zu meinen Seiten gibt (etwa ein Drittel der Besucher kommt über die Wikipedia zu mir), aber keine bei der Falcon. Es ist wohl kein Platz für kritische Fragen und der Blick hinter die Fassade. Für mich steht das wichtigsten der Wikipedia ganz unten: Die Referenzen. Ich nutze es als etwas aufgeblasene Linksammlung zu den originalen Verweisen.

Inzwischen kämpfe ich mit einem anderen Problem: Bei der Recherche für die Europa Rakete bin ich auf der Suche nach den "richtigen" Daten. Je mehr Quellen ich heranziehe, desto mehr unterschiedliche angaben für die Stufen und Nutzlaste erhalte ich Insgesamt ist allerdings die Quellenlage überschaubar. Es schiene als würde gerne jeder die ELDO Trägerrakete gerne vergessen. Ich nun inzwischen schon fast so weit, dass ich die Daten aus verschiedenen Quellen parallel nebeneinander stellen will.

Mittwoch 14.1.2009: Pläne für die Space Shuttles?

Ich stieß vor einigen Tagen auf die folgende Meldung bei Space.com: Ein Gründer einer Raumfahrtfirma schlägt vor mit den Space-Shuttles zum Mars zu fliegen. Die Lösung für ihn ist ganz einfach: Zwei Space Shuttles mit zwei Spacehab Modulen werden im Weltraum mit einander verbunden und dann mit einer Rakete direkt zum Mars geschickt. Dort landen sie mit Fallschirmen. Und dann? Rückweg? Interessant welche Pläne Grüner von raumfahrtfirmen haben. Das senkt meine Meinung von der technischen Kompetenz die ja durch SpaceX schon gelitten hat noch weiter. Mal abgesehen von der mangelnden Rückkehrmöglichkeit und der Tatsache, dass Fallschirme die über 100 t schwere Shuttles landen können, wahrhaft riesig sein müssen ist das schon wegen dem Gewicht unmöglich: 2 Space Shuttles mit Nutzlast wiegen etwa 220 t - Woher soll der ganze Treibstoff kommen um die zum Mars zu befördern?

Aber versuchen wir mal ein Brain-Storming: Gäbe es eine Mögliche Verwendung der Space Shuttles im Weltraum nach 2010? Ich habe darüber nachgedacht und mir ist nichts besonders sinnvolles eingefallen. Zuerst dachte ich alt die Verwendung als Rettungsboot für die ISS. Doch da jede Besatzung danach mit einer Sojus kommt wäre diese Funktion eigentlich entbehrlich. Dann dachte ich an die Möglichkeit ein Space Shuttle voll mit Treibstofftanks zu packen und es zur regelmäßigen Orbitanhebung der ISS zu nutzen: Baut man das Lebenserhaltungssystem aus, so sind es etwa 40 t die man so zur ISS transportieren kann. Allerdings wird auch die ISS um 100 t schwerer und braucht so mehr Treibstoff und die Funktion ist nicht so vital, als dass nicht ein ATV oder Progress sie übernehmen könnte.

Angesichts der systemimmanenten Kosten des Space-Shuttles wäre auch ein Umbau zu einem unbemannten Träger nicht sinnvoll - Das wäre eine sinnvolle Entscheidung gewesen als die Columbia verloren ging: Für die Transporte zur ISS hätte man so einige Flüge einsparen können. Wenn also Kostenaspekte zählen, so ist das Museum wohl der einzige weg. Wo sie wohl landen? das Nationale Luft- und Raumfahrtmuseum in Washington hat ja schon ein Space Shuttle, den flugunfähigen Orbiter "Enterprise". Ich vermute dass er einem geflogenen Exemplar weichen wird. Es wäre schön wenn das Technikmuseum in Speyer einen bekommen würde - das wäre dann der einzige Platz der Welt wo man bei beide Raumfähren (Buran und Space Shuttle) nebeneinander vergleichen kann.

Donnerstag 15.1.2009: Die Wiederkehr der Harvard Architektur

Nach längerer Pause mal wieder ein Computerthema, auf das ich ganz zufällig gestoßen bin. Wer einmal theoretische Informatik als Fach hatte, weiß, das es zwei grundlegende Architekturen für Computer gibt (wahrscheinlich noch mehr, aber zwei haben sich eben durchgesetzt). Das eine ist die "von Neumann" Architektur, die ihr PC hat. Es ist die am weitesten verbreitetste und bis vor kurzem dachte ich, dass sie eigentlich die einzige überlebende ist. Die Architektur ist ganz einfach: Es gibt einen Speicher, der Befehle und Daten aufnimmt und einen Adressbus und einen Datenbus der beides verbindet. Der Vorteil liegt auf der Hand: Man hat nur ein Bussystem und kann den Speicher frei aufteilen, wo Daten und wo Code gespeichert werden sollen. Es ändert auch nichts an der Von Neumann Architektur, wenn Speicher dafür fest reserviert werden, z.B. es Codesegmente und Datensegemente gibt oder es einen beschreibbaren und einen nicht beschreibbaren Speicher gibt.

Die zweite Architektur ist dagegen auf den ersten Blick unterlegen: Die "Harvard Architektur" hat einen separaten Datenspeicher und einen Programmspeicher. Beide mit einem eigenen Datenbus und einem eigenen Adressbus. Auf den ersten Blick ist das deutlich umständlicher: Ich habe zwei Bussysteme, zwei Speichersysteme und kann nicht einmal unbelegten Datenspeicher für Programme nutzen. (Und umgekehrt)

So sahen es auch die meisten Computerbauer und daher konnte sich die von Neumann Architektur durchsetzen. Mittlerweile muss man aber schon einige Tricks anwenden, um die CPU weiter zu beschleunigen. So werden heute Programminstruktionen in kleinere Einheiten übersetzt. Das wird um so problematischer, je variabler der Datenanteil ist (8,16,32,64 Bit lange Zahlen). Caches werden segmentiert in Daten und Code Teile, weil die Codeteile sich normalerweise nicht ändern. Streaming Instruktionen versuchen die Geschwindigkeit zu erhöhen, indem eine Instruktion mehrere Datenwörter parallel bearbeitet, indem mehrere Recheneinheiten gleichzeitig unterschiedliche Teile eines sehr großen (128-256 Bit langen) Datenworts bearbeiten. Damit dies geht, braucht man dann schon dicke Datenbusse.

Eigentlich kommt diese Idee des SIMD (Single Instruction Multiple Data) von den Signalverarbeitungsprozessoren und bei diesen setzt sich nun langsam wieder die Harvard Architektur durch. Warum? Nun die modernen Signalverarbeitungsprozessoren, wie z.B. die C6Xx Serie von Texas Instruments, haben oft die Aufgabe sehr viele Daten nach immer der gleichen Weise zu verarbeiten. Denken sie an das Umwandeln von Blue Ray Daten in Fernsehsignale: Die nach dem H264 kodierten Signale müssen dekomprimiert werden, bei HD-TV Auflösung sind das 1920 x 1080 Punkte 25-60 mal pro Sekunde: Es gibt laufend neue Daten, während das Programm dafür recht kompakt und klein ist. Diese CPU's verarbeiten mit einer Instruktion typischerweise mehrere Datenwörter parallel nach dem selben Algorithmus (ideal bei Videosignalen, die natürlich alle gleich kodiert sind) und erreichen so bei unter 1 GHz Takt enorme Geschwindigkeiten. Nur gibt es dann auch Probleme:

Fasst man diese Überlegungen zusammen, so drängt sich fast automatisch die Harvard Architektur auf: Der Code sitzt in einem sehr kleinen RAM, aber dieses ist schnell: Dual Port RAM oder gar SRAM, anstatt langsamen statischen RAM. Viel mehr Speicher braucht man für die Daten. Diese erhalten ein einen eigenen Datenspeicher mit einem sehr dicken Datenbus. so können die Daten in mehrere Rechenwerke gleichzeitig transferiert werden und der langsame Zugriff auf DRAM wirkt sich nicht so sehr aus. Heutige DSP von Ti, die auch ihren Einzug in der Raumfahrt haben, setzen daher oft schnelles SRAM für den Code ein und einen viel größeren Speicher mit DARM für die Daten. Das Programm selbst kommt oft aus einem EEPROM und wird vor dem Start ins RAM kopiert. Auch die GPU's von Grafikkarten haben ein getrenntes RAM für Code und Befehle (oft unterschiedlich schnell getakt), wobei hier die Datenmenge noch größer ist, so dass auch 256-512 Bit breite Datenbusse nötig sind um die vielen Recheneinheiten zu versorgen.

Es ist unwahrscheinlich, dass die PC's von der von Neumann Architektur abkommen werden (obwohl getrennte Caches für Daten und Code ja schon eine gewisse Abkehr sind9, doch für Signalverarbeitungsaufgaben scheint die Harvard Architektur echte Vorteile zu haben.

Freitag 16.1.2009: Das Rätsel des Fluges der Europa F.9

Während ich für mein Buch über europäische Trägerraketen recherchiere, bin ich auf etwas interessantes gestoßen. Es geht um den Flug F.9 der Europa I, den letzten der Europa I, der auch fast in einem Orbit führte. Folgende Daten wurden dazu veröffentlicht:

Zur Erklärung für die, die es nicht wissen: F.9 hätte einen 265 kg schweren Satelliten in einen Orbit bringen sollen. Der Orbit war nach einer Quelle ein 400 x 2000 km Orbit von 84.3 Grad Neigung, wenn alles nominal gelaufen wäre und ein 485 x 3400 km, wenn die Astris nicht korrekt funktioniert hätte. Die Differenz zu einem höheren Orbit resultierter daraus, dass die Astris sich nach 356 Sekunden abschalten sollte, bei einem Fehler sollte sie 9 Sekunden länger brennen und so einen höheren Orbit erreichen.

Was passierte? Die Nutzlasthülle wurde nach 228 Sekunden nicht abgetrennt und die Nutzlast stieg so von 265 auf 550-573 kg. Diese zu hohe Nutzlast soll daran schuld sein, dass die Nutzlast nicht den Orbit erreichte. Die zweite Anomalie war ein Absinken des Schubs zum Ende des Astris Betriebs, weil ein verschmutztes Helium-Überdruck Ventil Druck abließ. Der spezifische Impuls war aber nach Angaben von Erne wie erwartet.

Nur: Da stimmt was nicht. Die nominelle Brennzeit der Blue Streak beträgt 153-157 Sekunden. Bei einer Brennzeit von 157 Sekunden ist sie also ausgebrannt.. Die zweite Stufe brannte voll aus - 102 Sekunden waren geplant. 105 Sekunden waren es und das gleiche gilt für die Astris (356 zu 366 Sekunden). Wenn alle 3 Stufen ihre nominelle Brennzeit haben, dann muss so auch die nominelle Nutzlast transportiert werden.

Diese sollte aber bei der Europa 1 etwa 850-900 kg in einen niedrigen polaren Orbit betragen. Man hätte zwar den hochelliptischen Orbit nicht erreicht, aber sicherlich einen Orbit. 570 kg Nutzlast liegen deutlich unter der Nutzlast von 850 bis 900 kg!.

Das zweite Rätsel: Die Geschwindigkeit in der Periapsis sollte beim nominellen Orbit 8069 m/s betragen, nicht 7893 m/s. Eine positive Differenz durch die Erdrotation fällt bei der Polarbahn weg. Bei Ausbrennen der Astris wären es sogar 8262 m/s für den 485 x 3400 km Orbit. Wenn das Perigäum mit 400 km feststeht, entsprechen 7893 m/s Bahngeschwindigkeit einem Apogäum von 1250 km Entfernung.

Was gibt es noch an Erklärungsmöglichleiten? Es gibt noch die Abnahme des Schubs der Astris zum Ende der Brennzeit. Dies sollte keine Auswirkungen haben. Die Astris hat einen Schub von 2.3 t. Sie wiegt 3.4 t, dazu kommen noch etwa 0.6 t Nutzlast. Sofern die Abnahme erst nach der Hälfte der Brennzeit erfolgt, hat die Astris so viel Treibstoff verbrannt, dass der verringerte Schub auf jeden Fall ausreicht um die Bahn weiter anzuheben.

Es gibt also noch unbekannte Fakten, die nötig sind um den Fehlschlag zu erklären. Ich persönlich tendiere zu zwei möglichen Erklärungen:

In der Summe gibt es doch noch viele Rätsel. Mein Buch über Europa Raketen wird daher wohl noch einige Zeit auf sich warten lassen. Ich habe gerade eine neue Quelle gefunden: Flightglobal.com: Dort kann man die eingescannten Jahrgänge der Zeitschrift "Flight International" über fast ein Jahrhundert durchsuchen. Das ist eine wirklich tolle Quelle für Original-Informationen aus dieser Zeit. Die Freude wird nur durch zwei Dinge getrübt: Das erste ist, dass die Suche sehr unspezifisch ist. Es ist nicht möglich logische Verknüpfungen zu machen. Das zweite ist, dass das Übertragen der PDF Seiten sehr langsam ist und bei mir im Geschäft immer wieder Acrobat beim Ansehen abstürzt.

Samstag: 17.1.2009: Vergleiche in der Werbung

Vor einigen Tagen bekam ich eine Mail, in der ich darauf aufmerksam gemacht wurde, dass nun Danone in seiner Werbung für die Fruchtzwerge auf einer neuen Welle reitet. Sie werben mit dem Calcium und Vitamin D in den Fruchtzwergen. Wer so wie ich etwas älter ist, der kennt ja diese Firma und ihre Werbung für die Fruchtzwerge. Früher war es lange Zeit "So wertvoll wie ein kleines Steak". Das wurde ihr irgendwann verboten, weil es hochgradig irreführend ist. Das einzige was daran stimmte ist, dass der Energiegehalt vergleichbar ist, die Fruchtzwerge aber viel mehr Zucker und Fett und weniger Eiweiß als ein Steak enthielten.

Nun soll mit Calcium und Vitamin D geworben werden. Und ich habe mir mal die Seite angesehen. Der Calcium Gehalt und Vitamin D Gehalt stammt offensichtlich aus der Milch. So gesehen könnte man auch Milch oder ein Milchprodukt zu sich nehmen. Das erste was mir auffiel war auf der "Wussten sie schon" Seite die Grafik. Nach der sollten Fruchtzwerge sehr viel weniger Fett und Kohlenhydrate enthalten als andere Produkte.

Wer sich die Grafik genau ansieht der stellt einige Besonderheiten fest. Das erste ist der Maßstab in der X-Achse der erst bei 10 % Kohlenhydrat-Gehalt anfängt. Würde man auch hier von 0 anfangen, so sähe das Ergebnis weitaus weniger spektakulär aus. Die meisten Produkte liegen bei 12-17 % Kohlenhydrate. Da sind die Unterschiede nicht so groß. Das gilt noch mehr für das Fett, wo eine so hohe Y-Achse eigentlich nur für ein Produkt mit 14 % Fett (offensichtlich ein Rahmjogurt) notwendig ist. Alle anderen liegen zwischen 2 und 6 % Fett.

Das nächste ist: Womit vergleiche ich mich? Wenn ich einen für mich günstigen Vergleich haben will, dann suche ich mir einfach Konkurrenzprodukte heraus, die schlechter als mein Produkt abschneiden. Das ist bei "Kinder" Produkten recht einfach, denn diese sind herstellerübergreifend zu süß und mit hohem Fettanteil gemacht. Die einzigen beiden Fruchtjogurts im Vergleich sind weitaus besser eingeordnet. Der Autor hätte kein Problem, aus dem nächsten Supermarkt einige mehr zu besorgen, die besser als Fruchtzwerge abschneiden.

Inzwischen ist es ja etwas besser geworden und der Energiegehalt von Fruchtzwergen ist "nur" noch so hoch wie bei normalem Fruchtjogurt. Früher war es recht fettreich. Heute bestehen Fruchtzwerge aus Magerquark, der ominösen Traubenfruchtsüße und Frucht. Der Hersteller gibt keine genaue Rezeptur an, doch das lässt sich aus dem Eiweiß/Fett/Calcium Gehalt rekonstruieren. Vor allem ärgert mich seit Jahren die Unverfrorenheit, mit der man Glucose oder Glucose-Fructose Sirup als "Traubenfruchtsüße" bezeichnet. Mit Trauben und ihren wertvollen Inhaltsstoffe hat das genauso wenig zu tun, wie der Einsatz von Butterreinfett mit der Milch etwas zu tun hat. Das dies noch nicht verboten wurde, zeigt in welchem Zustand unsere Lebensmittelüberwachung ist. Die Frage ist wann andere Hersteller nachziehen. Warum bezeichnet man dann nicht Sonnenblumenöl als "Die Kraft aus Sonnenblumen" oder Haushaltszucker als "Rübenfruchtsüße" oder wie wäre es mit der Bezeichnung "Milchkonzentrat" für Molke?

Dazu passt auch dass der Hersteller seine Produkte schön redet. Ein Zitat aus einer Broschüre."Tatsache ist: Nicht der Zucker ist es, der dick macht, sondern das Fett – und der Umstand, dass Zucker oft in Form von Süßigkeiten aufgenommen wird, die relativ fetthaltig sind". Das ist schlicht und einfach falsch. Zucker wird in Fett umgewandelt und er sättigt gar nicht. Daher kann man von ihm recht viel konsumieren ohne satt zu werden. Zwar sind zahlreiche Süßigkeiten fetthaltig, doch kann man jede Menge Zucker auch mit Saft, Limonade, Bonbons und Gummibärchen zu sich nehmen und dadurch dick werden. Da vor allem der Zuckerzusatz bei diesem Produkt so in der Kritik steht, ist es für mich nicht verständlich, warum er nicht zumindest einen Teil durch Süßstoffe ersetzt.

In der Summe soll es doch darauf hinauslaufen ein Produkt als gesund zu bezeichnen, obwohl es das nicht ist. Ich rate Eltern dazu, generell um solche speziellen "Kinder" Produkte einen Bogen zu machen, auch um Produkte einer Firma bei denen "Kinder" dick auf der Verpackung drauf steht. Eine Alternative sind Diätjogurts (die eben nicht so viel Zucker enthalten) oder selbst gemacht Desserts aus Naturjogurt oder Quark und Marmelade. (Auch die gibt es energiereduziert). Wer selbst mischt, setzt meist weniger Zucker zu, als in den gekauften Produkten drin ist und der Fruchtanteil ist auch höher. (er muss bei einem fertigen Fruchtjogurt nur 6 % betragen).

Dienstag 20.1.2009: Ich bin ein Wasserstoff Fan!

... Zumindest wenn es um Raketentreibstoffe geht. Es ist sehr schwer, wenn nicht unmöglich, als Laie zu beurteilen, wann ein Antrieb wirtschaftlich profitabel ist. Doch die technische Seite kann man recht gut beleuchten. Ich stelle immer wieder fest, dass es eine Menge von Raumfahrt-Fans gibt, die zwar alles mögliche über Missionen wissen, aber die einfachen mathematischen Grundlagen nicht verstanden haben. Das zeigt sich dann in dem Vorschlag eine Stufe durch eine andere auszutauschen oder Triebwerke auszuwechseln und wenn man diese Vorschläge nachrechnet (wofür man keinen Computer braucht, ein Taschenrechner reicht aus) zeigt sich, dass diese Vorschläge die Nutzlast verringern.

Heute mal ein Plädoyer für Wasserstoff anhand eines praktischen Beispiels. Ich will es bewusst einfach halten, und nehme daher sehr allgemeine Annahmen an, die aber so in etwa gelten:

Ein Excel Sheet zum Nachrechnen habe ich beigefügt. Die hinsichtlich Stufenmassen nicht optimierte, aber dem Optimum recht nahe kommende Rakete liegt dann bei etwa 152.5 t bei LOX/LH2, aber bei 401 t bei LOX/Kerosin, obwohl diese vom Strukturfaktor besser ist. Das ist eben der exponentiell eingehende spezifische Impuls, der etwa 30 % geringer ist. Noch übler wird es bei der Abnahme der Nutzlast mit steigender Geschwindigkeit. Für den GTO Orbit (v=12000 m/s) sind es dann noch 2150 kg bei LOX/Kerosin und 3300 kg bei LOX/LH2. Hier müsste bei LOX/Kerosin das Stufenverhältnis verändert werden oder eine weitere Stufe hinzukommen. Bei Fluchtgeschwindigkeit (v=12700 m/s) sind es dann nur noch 950/2200 kg, der Unterschied liegt also beim Faktor 2.

LOX/Kerosin ergibt also nicht nur eine fast 3 mal größere Rakete (für den LEO Orbit), die Nutzlast nimmt auch noch stärker ab. In der Praxis würde man natürlich die Rakete für einen bestimmten Orbit optimieren oder eine dritte Stufe einführen. Eine dritte Stufe würde zwar die Nutzlast dann wieder anheben, aber auch die Kosten.

In jedem Falle wird aber immer eine LOX/LH2 Rakete immer leichter sein (wenn sie die gleiche Stufenzahl hat). Der Unterschied wird sogar noch größer bei höheren Geschwindigkeiten. Eine Rakete die 10 t auf Fluchtgeschwindigkeit in dreistufiger Version bringt wiegt etwa 360 t bei 3 LOX/LH2 Stufen und 1140 t bei LOX/Kerosin. Das wird immer so sein.

Warum ist LOX/LH2 dann so selten? Nun so selten ist es gar nicht. Wenn man die in Europa und den USA seit 1980 neu in Dienst gestellten Antriebe nimmt, dann überwiegt Wasserstoff/Sauerstoff. Das Problem ist, dass immer noch Antriebe fliegen die vor Jahrzehnten entwickelt wurden. Auch Russland machte mit dem RD-120 einen Schritt in diese Richtung, aber noch mehr als im Westen fliegen hier Jahrzehnte alte Antriebe. Die Entwicklungskosten einer Rakete sind so hoch und die Startkosten so gering, dass wenn nicht technische Gründe eine komplette Neukonstruktion nötig machen es nicht wirtschaftlich ist auf Wasserstoff/Sauerstoff zu wechseln. Bis man die Entwicklungskosten durch niedrigere Fertigungskosten wieder herein bekommt dauert es einfach zu lange wenn neuer ein Dutzend Starts pro Jahr erfolgen. Selbst SpaceX schätzt die Entwicklungskosten einer Falcon 9 mit kryogener Oberstufe auf 1-2 Milliarden Dollar. Bei rund 100 Millionen pro Start und vielleicht 20-30 % Gewinn dabei kann man sich ausrechnen wie viele Flüge notwendig sind um 1-2 Milliarden wieder rein zu bekommen. Sinnvoll ist es aber dann wenn man über einen solchen Antrieb verfügt ihn möglichst effizient einzusetzen. Daher finde ich die Ideen die Vulcain Stufe als Booster einzusetzen nicht dumm: Die Stufe existiert bereits und das Triebwerk auch. Dringend ist derzeit eine größere Oberstufe, doch wenn die existiert wäre es sicher sinnvoller anstatt einer noch weiteren Steigerung der Nutzlast an Wiederverwendung zu denken und so die Kosten zu senken.

Gibt es noch optimalere Treibstoffe: Theoretisch schon, praktisch sind die Alternativen dünn gesäht. Fluor/Wasserstoff liefert noch etwas höhere spezifische Impulse, doch der Gewinn liegt im einstelligen Prozentbereich. Optimal wären 3 Komponentenysteme bestehend aus Lithium/Beryllium und Wasserstoff als Verbrennungsträger und Sauerstoff/Fluor als Oxidator. Beryllium verbrannt mit Sauerstoff liefert sehr viel Energie, aber das Berylliumoxid wird schon bei recht hohen Temperaturen fest und leistet dann keinen Anteil mehr zum Schub. Daher setzt man Wasserstoff hinzu, der als Arbeitsgas auf hohe Temperaturen erhitzt wird und die molekulare Masse des "Abgases" rapide absenkt. Dadurch steigt der spezifische Impuls an. Das Problem ist nur, dass Beryllium und Lithium extrem teuer sind und zudem sind solche 3 Stoffsysteme auch technisch sehr aufwendig. Daher halte ich Wasserstoff/Sauerstoff für das Optimum, und dies wahrscheinlich für lange Zeit.

Mittwoch: 21.1.2009: Was bringt Obama für die Raumfahrt?

Eine gute Frage, denn 8 Jahre unter Bush waren ja nicht nur im Allgemeinen ziemlich übel, sondern auch die Raumfahrt hat es schwer erwischt. Zuerst einmal gab es den schon seit 1969 bestehenden Trend, dass die NASA immer weniger Geld bekommt - gemessen am Gesamtbudget der USA. Bushs Regierung war aber in vielem trotzdem sehr einschneidend, vor allem für die unbemannte Raumfahrt. Das lag an zwei Dingen:

Es gibt also den Bedarf an mehr Finanzmitteln (Columbia/SS und Constellation9, aber die NASA hat keine bekommen. Das führte in den letzten Jahren zum Streichen zahlreicher Projekte die beabsichtigt waren, oder sie wurden gestreckt oder verschoben. Sehr deutlich ist dies bei meinem Lieblingsgebiet, der Planetenforschung. Da sind derzeit nur 3 Missionen geplant: Der LRO/LCROSS, das Mobile Mars Labor und Juno. Das ist alles was bis 2012 starten wird. Vorbei sind die Zeiten in denen es 2-3 Raumsondenstarts pro Jahr gab.

Was wird sich unter Obama ändern? Das ist schwer zu sagen. Es ist vor allem jetzt klar, das es genügend andere Probleme gibt. Die Rezession, die Staatsverschuldung, der Krieg im Irak und Afghanistan. Auch innenpolitisch scheint einiges nachzuholen sein. Die NASA wird da nicht oberste Priorität haben. Ich erhoffe mir aber von Obama mehr als von Bush. Es ist vielleicht Schwarz/Weiß Denken, aber wenn ich die Präsidenten seit Kennedy Revue passieren lasse, dann stehen mit Ausnahme von Carter alle Demokraten für eine Zeit in der die NASA ein ausgewogenes bemanntes und unbemanntes Programm hatte. Das bemannte Programm ist nur selten in Gefahr. Selbst bei Reagan flogen die Shuttles fleißig, auch wenn die NASA sonst fast nichts mehr in seiner Regierungszeit startete. Die Republikaner stehen dagegen ohne Aufnahme für Perioden in denen die NASA echte Finanzprobleme hat.

Was wäre mein Wunsch an Obama? Er sollte dafür sorgen, dass bemanntes und unbemanntes Programm glich berechtigt finanziert. Die Forderung für 2009 beträgt für Science 4441 Mill. $, für das Constellation Programm aber 3500 Millionen und für ISS/Shuttle weitere 5767 Millionen Dollar. In der Summe ist das bemannte Programm heute also mehr als doppelt so groß wie das unbemannte. Das geht indem man zuerst einmal bevor man an den Mond denkt, die laufenden Projekte absichert. Das bedeutet, dass nach dem Ausmustern der Space Shuttle der ISS Betrieb reibungslos auch mit den Sojus Flügen geht und auch die USA ihren Frachtanteil leisten. Darum hat man sich viel zu spät gekümmert. Eine Beschleunigung von Orion/Ares I wäre auch nicht verkehrt, so dass die Lücke nicht so groß ist. Wenn dies läuft, dann kann man sich Gedanken über Ares V und Altair Lander machen. Solange sollte man aber sich die Gelder dafür sparen und das unbemannte Raumfahrtprogramm stärken. Es geht aber auch um Planungssicherheit. Zu oft habe ich in diesem Blog die ISS und Space Shuttles als Thema gehabt. Nicht etwa, weil ich mich für bemannte Raumfahrt besonders interessiere, sondern weil sie nicht mehr aus den Schlagzeilen raus kommt. Diese Politik der letzten Jahre: Zwar ein neues Programm aufzulegen, aber sich nicht mehr um das alte (ISS) zu kümmern und dann erst spät sich um Lücken in der Versorgung zu kümmern ist ja wirklich einzigartig. Dann isst das noch verwoben mit diesem "Ich muss alles selbst machen" Geist, der die NASA antreibt: Man kennt die Lücke in der Versorgung von 2010-2014, doch anstatt auf Russland, Europa und Japan zuzugehen, die schon existierende Frachtraumschiffe haben und die Versorgung übernehmen könnten, legt man was eigenes auf: Das ist an und für sich nicht schlecht, nur muss die Lösung dann auch zeitnah zur Verfügung stehen. Aber wenn Ende 2008 ein Auftrag für die Versorgung erteilt wird, um eine Lücke ab Mai 2010 zu schließen, dann ist das nicht zeitnah. Die Lücke ist bekannt seit 2004, genug Zeit wäre gewesen.

Ich hoffe daher vor allem es wird in der NASA ruhiger, sicherer, sie wird wieder verlässlicher, auch für die Zusammenarbeit mit der ESA. Beim Blog gestern habe ich die Excel Tabelle vergessen. Ich habe sie nun noch auf die Website hochgespielt.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99