Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 21 : 15.4.2007-18.4.007

Sonntag, 15.4.2007: Elektrische Triebwerke - Wann kommt der Durchbruch?

Seit ich mich für Raumfahrt interessierte war ich fasziniert von elektrischen Triebwerken. Ionentriebwerke (so der international gebräuchlichere Name) beziehen die Energie für den Antrieb nicht aus der chemischen Energie einer Verbrennung sondern Strom ionisiert ein neutrales Arbeitsmedium und beschleunigt die Ionen auf hohe Geschwindigkeiten. Die Ausströmgeschwindigkeit ist 10 mal höher als bei chemischen Treibstoffen, doch dafür muss man sehr lange Betriebszeiten in Kauf nehmen. Anstatt Minuten arbeiten solche Triebwerke Monate oder gar Jahre. Dafür braucht man einen Bruchteil des Treibstoffs.

Ich habe die Technologie schon an anderer Stelle erläutert, daher an dieser Stelle wenig dazu. Das frappierendste ist dass man enorme Mengen An Triebstoff sparen kann. Eine Titan 4B transportiert 22640 kg in einen erdnahen Orbit und 5760 kg in den geostationären Orbit. Dort "oben" in 36000 km Höhe kommt also nur ein Viertel der Nutzlast an. Der Rest ist Treibstoff, denn man braucht um etwa 4 km/s Geschwindigkeit abzubauen. Obwohl man bei einem Ionentriebwerk je nach Missionsprofil sogar bis zu 6000 m/s Geschwindigkeit abbauen muss benötigt man bei einer Strahlegeschwindigkeit von 30 km/s nur 19 % der Startmasse an Treibstoff, also kann den Nutzlastanteil von 25 % auf 81 % erhöhen.

Warum macht man es nicht? Nun erstaunlicherweise ist wohl der Druck noch nicht so groß. Auch wenn man s nicht glauben möchte: Der Transport ins All ist billiger geworden. Im Jahre 1980 kostete ein Delta 3914 Start 35 Millionen US-$ bei einer Maximalnutzlast von 930 kg. Heute kostet eine Ariane 5 ECA 170 Millionen US-$ bei einer Nutzlast von 9200 kg. pro Kilo Nutzlast zahlt man heute also die Hälfte, nimmt man noch die Entwertung des Dollars hinzu vielleicht ein Viertel bis ein Sechstel.

Das erlaubt es Satelliten mit enormen Mengen an Treibstoff auszurüsten. Anders sind die immer längeren Betriebszeiten im Orbit nicht machbar. Und die Satelliten werden so immer schwerer. Die Frage ist wie lange noch? Ariane 5 kann man noch mit einer verbesserten Oberstufe auf 11.3 t Nutzlast erweitern, mit einem neuen Vulcain 3 Haupttriebwerk und neuen Boostergehäusen aus Verbundwerkstoffen auf 14 t. Doch was dann? Die Delta IV und Atlas V erreichen solche Nutzlasten schon heute nicht mal mehr mit dem Clustern von Stufen. Es kann ja nicht die Lösung sein immer stärkere Raketen zu bauen, sonst sind wir in 20 Jahren bei einer Saturn V angelangt (In 25 Jahren hat sich die mittlere Startmasse um den Faktor 3 erhöht).

Es ginge einfacher: Heute schon gibt es Ionentriebwerke zur Lageregelung. Weiterhin braucht man auch viel mehr elektrische Leistung heute am Start. Ein Intelsat 9 wiegt beim Start 1978 kg leer, hat aber 2745 kg Treibstoff an Bord. 1830 kg braucht er um den Orbit zu erreichen, den Rest von etwa 900 kg alleine um die Position über die geplante Lebensdauer von 13 Jahren zu halten. Der Solargenerator liefert 12 kW Leistung die vor allem für die Sender benötigt werden.

Nun ja wir können rechnen. Von den 1978 kg Leermasse muss man natürlich noch die Subsysteme abziehen die man für das Triebwerk braucht. Das sind weitere 400 kg. Es bleiben also noch 1600 kg Satellit übrig. Um diese 1600 kg in 36000 km Höhe zu transportieren braucht man eine Rakete die im erdnahen Orbit etwa 10 t abgesetzt hätte, also ein sechsfaches der Startmasse. Würde man nun dieselbe Leistung mit Ionentriebwerken erbringen so betrüge die Startmasse 2088 kg bei 478 kg Treibstoff. Die Transportkosten würden also auf ein Viertel zurückgehen, denn diese Nutzlast könnte man in 600 km Höhe aussetzen, wo die Nutzlast der Trägerrakete höher ist.

Mit zwei Ionentriebwerken des Typs RIT-35L braucht man maximal 382 Tage (Worst Case Szenario, 5900 m/s Geschwindigkeitsdifferenz Abbau für Bahnhöhenänderung und Inklinationsänderung) bei 8.9 kW Leistung die ja zur Verfügung steht. Das ist der Preis. Der Satellit steht solange nicht zur Verfügung. In dieser Zeit könnte man Geld verdienen. Man kann dies jedoch beschleunigen wenn man mehr elektrische Leistung zur Verfügung stellt

Elektrische Leistung Zusatzgewicht Gesamtgewicht Reisedauer
8.9 kW 0 2088 kg 382 Tage
13.4 kW 100 kg 2188 kg 265 Tage
17.8 kW 220 kg 2304 kg 210 Tage
35.6 kW 478 kg 2567 kg 124 Tage

Wie man sieht ist der Zusammenhang nicht linear, weil natürlich das erhöhte Startgewicht auch mehr Treibstoff notwendig macht. Die 4 Fache elektrische Leistung führt aber immerhin zu einer Reduktion auf ein Drittel der Zeit. Dann ist man im Bereich von 4 Monaten - Durchaus auch eine Zeit mit der man bei Startverzögerungen und Feinjustagen des Orbits rechnen muss und die auch bei normalen Starts vergehen - Trotzdem hat man hier nur ein Viertel der Nutzlast benötigt.

Als weitere Vorteile ist es möglich mit dem Strom stärkere Sender länger zu betreiben und auch mehr Treibstoff für eine längere Betriebsdauer ist kein Problem. Warum macht man es nicht? Eine gute Frage. Oft wird der Van Allen Strahlungsgürtel als Hund genannt. Er schädigt Elektronik und Solarzellen und wird über Wochen von dem Satelliten passiert. Aber das kann man abschirmen (Elektronik) und wenn man mehr Leistung hat als man später im Orbit braucht kann man auch einen Verlust von 10 % leicht hinnehmen.

Ich meine einfach es hat noch keiner probiert. Satellitenbusse werden kommerziell gefertigt und wenn man sich da verkalkuliert, dann hat man hohe Entwicklungskosten in den Wind geschrieben. Daher wird evolutionär entwickelt: Ionentriebwerke ersetzten die Feinsteuerung in einer Achse, dann in zwei, dann in drei. Vielleicht kommt in ein paar Jahren jemand auf die Idee, das Apogäum chemisch nur über den äußeren Van Allen Gürtel anzuheben (30000 km) und dann die restlichen 6000 km mit den Ionentriebwerken zurückzulegen um so die Lebensdauer um 1-2 Jahre zu verlängern. Immerhin denkt man über ein Vehikel nach das an alte Satelliten ankoppeln und für diese die Steuerung übernehmen soll um diese noch länger im Betrieb zu halten. Es tut sich also was, aber nur sehr langsam. Wahrscheinlich wird man erst umdenken, wenn es einfach zu unwirtschaftlich ist eine Rakete dauernd in der Leistung zu steigern, denn die Entwicklungskosten steigen proportional mit: Die Entwicklung der Ariane 5 war erheblich teurer als die der Ariane 1 mit einem Viertel der Nutzlast.

Montag 16.4.2007: Verschiedenes

Heute mal keinen Eintrag zu einem bestimmten Thema, sondern einfach ein paar Dinge die so aufgelaufen sind mal zusammengetragen. Fangen wir am mit dem Thema Raumfahrt: Wir berichtet hatte die Zenit einen Fehlstart im Januar. Nun gibt es einen neuen Starttermin. Wahrscheinlich im Oktober soll es wieder weitergehen. Noch immer gibt es keine offizielle Verlautbarung vom Vermarkter Sealaunch über die Ursache des Fehlstarts. Der russische Hersteller der ersten Stufe ist da etwas auskunftsfreudiger. Es oll eine "Kontamination" in dem Triebwerk gewesen sein, welches zum Abschalten nach dem Start mit der Rückfallen auf die Startplattform und der Explosion führte.

Die umgebaute Ölplattform hat es recht gut überstanden. Lediglich ein 250 t schwerer Flammenablenker muss ausgetauscht werden. Trotzdem kehren Sealaunch nun Kunden den Rücken. Nach SES Americom schon im Februar ihren AMC-21 Satelliten auf eine Ariane 5 umgebucht hat folgte nun HNS mit dem Spaceway 3. Weiterhin verlor man Kunden für die Landlaunch Version: Eine Sealaunch die von Baikonur aus gestartet werden sollte - Sie transportiert dort deutlich weniger Nutzlast, dafür ist die Vorbereitung einfacher und kostengünstiger. Da der Kunde nicht nach Gewicht sondern einen Fixpreis zahlt sollte dies für kleinere Satelliten die günstigere Möglichkeit sein. Intelsat hat 2 Starts von getrennten Landlaunch Flügen auf einen gemeinsamen an einer Ariane 5 umgebucht.

Arianespace profitiert davon. Zum einen kann man kurzfristig die Startrate von 5 auf 6 pro Jahr erhöhen. Zum anderen gibt es Verschiebungen bei dem Ausbau der ISS welche den Start des ersten ATV weiter verschieben - mindestens auf Oktober anstatt wie vorgesehen im Mai. Dadurch bekommen Kunden die nun in Bedrängnis sind eher einen Startplatz.

Das zweite ist der rapide sinkende Preis von Flash Speicher. Eine 1 GB SD Karte kann man heute bei Conrad schon für 5 Euro kaufen - RAM kostet 10 mal so viel. Passend dazu habe ich einen Bericht über ein Sub-Mini Notebook (Sony Vaio VGN-UX1XN) gelesen, dass nur mit 32 GB Flashspeicher als Massenspeicher daher kommt. Das Notebook selber soll nach dem Testbericht mehr ein teures Spielzeug sein, aber die Idee ist doch bestechend. Zwar kann man noch nicht die Preise von Festplatten erreichen (für 100 Euro bekäme ich 20 GB Flash Speicher oder eine 100 GB 2.5" Festplatte). Aber dafür kann man durch Parallelschaltung enorme Geschwindigkeiten ereichen und das ohne Zeitverzögerung beim Zugriff. Schon am Start sind Festplatten mit Flashspeicher um Daten abzupuffern. In Zukunft könnte man einige GB auf dem Mainboard einbauen und dort das Betriebssystem vor dem Herunterfahren ablegen und es später schnell booten - Dann könnte man auch den PC dafür komplette vom Netz trennen. (Haben sie auch einen solchen, der immer noch im ausgeschalteten Zustand nicht ganz aus ist? Meiner versorgt zumindest die USB Ports und PS/2 Ports weiter mit Strom, wie ich an der leuchtenden Maus und dem USB Hub sehe.

Eine externe USB Flashdisk "Festplatte" wäre denke ich auch nicht uninteressant. Für mich als Backupmedium. Ich nehme dazu heute eine Festplatte. Doch Festplatten leben nicht ewig und sie bekommen leicht mechanische Defekte (von den Auswirkungen die springende Katzen auf dem Schreibtisch haben können mal ganz abgesehen). Daher habe ich heute die Daten zweimal - einmal auf der internen und einmal auf der externen Festplatte. Für die richtig wichtigen Daten (also gute Digitalfotos, Dokumente etc) reicht dann auch ein kleineres Flash Laufwerk, dass aber dann eben wirklich robust und unverwüstlich ist.

Da sind wir beim nächsten Thema Backup: Jeder weis er sollte es machen, keiner tut es. Dabei gibt es sogar ganz pfiffige Lösungen. Die ct hat das Script Rsync geschrieben. Das erstellte inkrementelle Backups an einen vorgegebenen Platz. Damit ist man auch vor eigenen Fehlern wie dem Überschreiben von Daten sicher. Wenn nur den letzten Stand haben möchte geht auch eine Batchdatei à la:

md J:\backup
xcopy %HOMEPATH%\Eigene Dateien J:\backup /S /Q /Y

Das in eine Datei namens backup.bat schreiben und der Ordner "Eigene Dateien" wo normalerweise die meisten Programm vorschlagen die Daten abzulegen wird mit allen Unterordnern auf das Verzeichnis J:\backup kopiert.

Nun muss man nur noch dafür Sorge dass es laufend ausgeführt wird. Am besten ist es die Batchdatei oder rsync am Beenden auszuführen. Dazu gibt es bei Windows XP Professionell eine einfach Lösung: In Start -> Ausführen -> gpedit.msc -> [Enter] -> Gruppenrichtlinie -> Computerconfiguration -> Windows-Einstellungen -> Scripts (Starten/Herunterfahren) -> Herunterfahren gehen und das Skript dort hinzufügen.

Wer eine andere Windows Version hat und damit leben kann, das es beim Start passiert, der kann auch im Autostartordner einen Link anlegen. Dann wird es eben beim Start ausgeführt. Das ganze geht ohne Backupsoftware und man kann die Dateien einfach durch Kopieren wieder restaurieren und ohne spezielle Software auch lesen. (Wer einmal nicht mehr lesbare Bänder oder Medien hatte, weil die Software für das Backup nicht mehr unter einem neuen Betriebssystem oder Rechner lief, der weis warum ich darauf großen Wert lege.).

Interessiert an weiteren kleinen Tipps hier in diesem Blog? Dann mal eine Mail oder einen Eintrag ins Gästebuch.

Dienstag 17.4.2007:Zukunftsprognosen

Seit etwa 2 Jahren bestelle ich beim Amazon Marketplace alte Bücher aus meinem Lieblings Themengebiet Raumfahrt. Zum einen findet man so interessantes Material gut aufbereitet für wenig Geld. Zum anderen kann man vieles aus der Retroperspektive anders beurteilen. Nimmt man Bücher vor 1970, so ist da von einer bald aufzubauenden Weltraumstation für 12 Personen die Rede, gefolgt von einer bemannten Mars Expedition zwischen 1981 und 1986. Ab 1970 war klar dass man kleinere Brötchen backen musste, aber man erhoffte sich eine Revolution des Transports durch den Space Shuttle. Weltraumfahrt sollte völlig anders werden - Die Industrie sollte Spacelab Flüge buchen um Experimente durchzuführen, Satelliten werden routinemäßig im Orbit repariert, ja selbst die Herstellung von Produkten im Weltraum wäre teilweise wirtschaftlich. (So abwegig ist dies nicht. Ein Mikroprozessor ist zum Beispiel erheblich wertvoller als Gold. Ein Die hat 100 mm² Fläche und 0.1-0.2 mm Dicke - Das ist ein Gewicht deutlich unter 1 g, dafür kostet so ein Prozessor in einem Keramikgehäuse 50-500 Euro im Verkauf....).

Manche Autoren lernen langsam hinzu. Am besten wohl verfolgbar bei Jesco von Puttkamer. Seit 1968 schreibt er Bücher über die Raumfahrt, seit er 1973 zuständig ist für die Untersuchung von zukünftigen Technologien und Anwendungen haben seine Bücher immer auch einen Ausblick in die Zukunft. 1981 prognostizierte er noch Solarkraftwerke im Weltraum, Kommunikationssatelliten mit Antennen von 65 m Durchmesser und Atommüllentsorgung in eine Sonnenumlaufbahn. Im letzten Buch findet man davon recht wenig. Zu oft lag er falsch. Nicht weil es nicht umsetzbar gewesen wäre, sondern weil es zu teurer gewesen wäre oder sich der Markt anders entwickelt hat. Anstatt mit einem satellitengestützten System mit den 65 m Antennen zur Versorgung von Ländern mit direkten Telefongesprächen von einem Mobiltelefon über Satellit zu einem anderen (wegen der geringen Sendeleistung war die große Antenne notwendig) nutzt man heute tausende von festen Stationen mit geringer Reichweite am Boden.

Ähnliches findet man auch wenn man Bücher vom Ende der sechziger Jahre liest wie "Unsere Welt - Morgen" oder ähnliches oder Reportagen aus dieser Zeit sieht. Da wird unsere Welt erheblich mobiler dargstellt as sie ist. Magnetschwebebahnen transportieren Menschen mit unglaublichen Geschwindigkeiten. Autobahnen gibt es auf Hochtrassen durch die Städte. Menschen leben auf dem Meeresboden und haben die Wüste fruchtbar gemacht. Im Haushalt funktioniert alles automatisch, aber vorwiegend über Mechanik und einfache Elektrische Schaltungen. Dafür gibt es so etwas wie Telekonferenzen zur Unterhaltung.

Einen PC mit Internetanschluss findet man nicht in solchen Zukunftsszenarien. Warum? Der Mensch kann nicht wissen was kommen wird. Das ist klar. Er kann nur versuchen was heute vorhanden ist in die Zukunft weiter zu spinnen. Trotzdem kommt man dabei zu solchen Fehlschlüssen. Warum? Nun man hat Dinge übersehen wie die Energiekrise die das Fahren und Energie allgemein deutlich verteuerte. Man nahm an dass das Verkehrsaufkommen so anwachsen würde wie bisher und man daher auf neue Verkehrsmittel und Trassen setzt. Doch das war nicht der Fall und es wäre nicht finanzierbar.

Vor allem denken wir linear. Wir denken eine Technologie entwickelt sich gleichmäßig weiter. Doch meiner Erfahrung nach ist dies nicht so. Es gibt meist eine Phase in der es sehr rapide Fortschritte gibt und dann werden diese immer kleiner - etwa wie bei einer Logarithmusfunktion oder einer um 90 Grad gedrehten Parabel. Nehmen wir das Fernsehen: Zuerst gab es Schwarz Weiß für wenige, dann wurde es für alle bezahlbar, dann Farbe, dann wurden Farbfernseher billiger und jetzt haben wir einen ähnlichen Effekt bei TFT Fernsehern mit HD Auflösung. Aber es ist immer noch der Bildschirm. Weder ein 3D Fernsehen, noch interaktives Fernsehen gab es noch den Fernseher denn man sich an die Wand hängte oder den Projektor im Wohnzimmer, denn man schon 1980 postulierte.

Selbst für die Computer gilt dies. Hier ein paar Eckdaten

Und seitdem? Seien wir mal ehrlich. Windows Vista ist schicker als Mac OS 1.0 vor 23 Jahren, aber es ist nichts fundamental neues. Das einzige was neu ist, ist das man heute mit dem PC im Internet surft. Auch dieses wuchs zuerst sehr rasch. Neue Technologien gaben sich in den ersten Jahren die klinke in die Hand und in den letzten  Jahren gab es davon eher wenige. Auch ich kenne einige Vorhersagen aus den frühen achtzigern die bis heute nicht eingetroffen sind. Damals glaubte man tatsächlich irgendwann wären Computer so intelligent dass man mit ihnen umgangssprachlich verkehren könnte.

Persönliche Computer findet man übrigens nur selten in irgendwelchen Vorhersagen vom Ende der sechziger. Arbeitserleichterungen geschehen elektrisch und elektronisch, aber nicht durch Computer. Auch TV Konferenzen erfolgen analog. Dabei gab es zu dieser Zeit schon 20 Jahre lang Computer, setzten Firmen diese ein. Warum? Niemand konnte sich vorstellen, dass diese einmal so klein und preiswert werden würden wie sie es heute sind - Ebenfalls lineares Denken, nur im umgekehrten Sinn: Computer waren immer groß und teurer, also werden sie das auch in Zukunft sein.

Es gibt neben den meist optimistischen Vorraussagen auch pessimistische. Nach der ersten Energiekrise postulierte man einen völlig neuen Umgang mit Energie - Mehr atomkraft, erneuerbare Energie, sparsame, sehr leicht gebaute und langsame Autos, viel mehr öffentlicher Verkehr mit Zug und Bus. Damals ging man von 30-40 Jahren aus in denen die Erdöl und Erdgasvorräte erschöpft sein würden. Das ist nicht passiert. Zum einen entdeckte man mehr. Zum anderen fördern wir heute fossile Brennstoffe aus Vorkommen die man vor 30 Jahren für unwirtschaftlich hielt wie Ölschiefer und Ölsand oder aus Lagern in großer Meerestiefe. Schade, denn wenn man sich früher an Ersatz gemacht hätte, dann wäre man heute sicher nicht so abhängig vom Öl.

Mittwoch 17.4.2007: Shuttle Oberstufen - Fehler im System

Das Shuttle heißt im Nasa Jargon offiziell "Space Transporting System". Und das "System" verrät schon. Es ist etwas mehr als nur der Orbiter. Damit ist natürlich das Gesamtsystem bestehend aus Orbiter, zwei Feststoffraketen und externem Tank gemeint. Jedoch machte sich die NASA auch von Anfang an Gedanken über den Einsatz des Shuttles und dazu notwendigen Erweiterungen. Eines war das Spacelab, wodurch man erst Forschung mit dem Orbiter durchführen konnte. Es wurde von er ESA entwickelt. Eine zweite Sache war der Satellitentransport und die Reparatur.

Man ging anfangs davon aus, dass der Space Shuttle wirklich preiswert im Vergleich zu herkömmlichen Trägerraketen sein würde. Er hat nur ein Manko: Die Nutzlast nimmt enorm schnell ab. Will man anstatt 200 km Höhe eine 600 km hohe Bahn erreichen so ist sie nur noch halb so groß. Genauso, wenn man anstatt einer 28.8 Grad geneigten bahn eine Polarbahn erreichen will. Nun gehen aber die meisten zivilen Satelliten in höhere Bahnen. Wetter- und Erderkundungssatelliten in 700-1300 km hohe Bahnen. Geostationäre Satelliten die schon bei der Entwicklung des Space Shuttles das Groß der Starts ausmachten sogar 36000 km Höhe. Diese Höhe konnte ein Space Shuttle nie ereichen.

Die einfachste Lösung wäre es eine vorhandene Oberstufe wie die Centaur zu nehmen und damit Satelliten zu befördern. Doch eine Centaur ist teuer, gemessen an dem ursprünglichen Kostenrahmen genauso teuer wie der Start eines Space Shuttles selbst. So kam man in den siebziger Jahren auf die Idee des "Space Tugs". Eine Oberstufe die zwischen den Bahnen pendelt und Satelliten aussetzt, zur Reparatur abholt oder wieder zurückbringt. Zwischen den Flügen muss man sie im Orbit auftanken. Leider habe ich nichts mehr über die genaue technische Auslegung des Space Tugs gefunden. Er sollte aber nicht billig werden: 636 Millionen US-$ sollte die Entwicklung kosten und 500 Millionen US-$ jedes weitere Exemplar. Zum Vergleich: Die damals parallel zum Space Shuttle entwickelte Ariane 1 kostete etwa 900 Millionen US-$ an Entwicklungskosten und die Herstellungskosten für jedes Exemplar lagen bei etwa 47 Millionen US-$.

Wahrscheinlich war der Space Tug nur gedacht für erdnahe Bahnen und arbeitete mit lagerfähigen Treibstoffen. Später gab es den Ersatz Teleoperator Retrivial System das nur etwa 30 Millionen USD kosten sollte und mit einer Reihe von auswechselbaren Hydrazintanks arbeitete. Ein Space Shuttle sollte leere Tanks dann durch neue ersetzen. Wichtigster Einsatz dessen war die Rettung von Skylab. Verzögerungen in der Entwicklung des Space Shuttles, Kostenüberschreitungen bei der Entwicklung und die sich der beschleunigende Absturz von Skylab verhinderten eine Umsetzung des Konzepts.

Ich möchte einmal ausrechnen ob sich der Transport auch in die geostationäre Bahn lohnt. Ausgangsbasis dafür ist die Centaur Oberstufe der Delta IV. Sie verfügt über das Triebwerk RL-10B2, das leistungsfähigste das heute im Einsatz ist und sie ist so isoliert, dass auch ein Betrieb nach mehreren Stunden möglich ist

Rechnen wir noch 200 kg für ein Kopplungssystem / Radar / Kameras dazu, so erhalten wir eine Startmasse von 24370 kg und eine Leermasse von 3050 kg. Beim Transport mit dem Space Shuttle kann man so noch eine Nutzlast von maximal 5000 kg transportieren (maximale Startmasse 29500 kg) und wenn man die Stufe auftanken muss so muss man 21320 kg an Treibstoff mitführen. Die Tanks dafür wiegen etwa 840 kg.

Um in einen geostationären Orbit von einer 200 km hohen Kreisbahn von 28.8 Grad Neigung zu kommen braucht man etwa 4250 m/s an Antriebsvermögen (2450 m/s um die Bahn von einer 200 km Kreisbahn in eine 200 x 36000 km Bahn umzuwandeln und 1800 m/s um dise durch eine zweite Zündung in 36000 km Höhe in eine Kreisbahn umzuwandeln und die Inklination von 28.8 Grad abzubauen).

Fall 1 : Abholen eines Satelliten

Startmasse: 24370 kg
im geostationäre Orbit: 9509 kg
Satellit: 1080 kg
im 200 km Orbit: 4131 kg

Fall 2: Transport eines Satelliten

Startmasse: 25550 kg
im geostationäre Orbit: 9969 kg
Satellit: 1080 kg
im 200 km Orbit: 3050 kg

Ein Satellit von 1080 kg Gewicht entspricht etwa einer Startmasse von 2100-2150 kg in den geostationären Übergangorbit, also in etwa dem was eine damals übliche Version der Atlas Centaur transportierte. Bedenkt man, dass der Space Shuttle in einen erdnahen Orbit die 5 fache Nutzlast einer Atlas Centaur transportiert, so sieht man hier schon die Crux: Man verbraucht so viel Treibstoff dass der Preisvorteil weitgehend zunichte ist. Leichte Steigerungen im Shuttle Startpreis und die kosten für die Stufe und es bleibt nichts übrig.

Das war der Grund warum wohl dieses Konzept des Space Tugs nie umgesetzt wurde. Was tat man stattdessen? Man behalf sich mit schnellen Lösungen. Da die meisten kommerziellen Satelliten einen integrierten Antrieb hatten um das zweite Manöver (die Anhebung der Bahn) durchzuführen - schon alleine weil man sie ja auch auf einer anderen Rakete starten musste entwickelte man zwei Feststoffoberstufen um den ersten Teil durchzuführen. Dies war die PAM-D (Payload Assistent Module Delta Class) und die PAM-A (Payload Assistant Module Atlas Class) welche genau die Größe hatten um eine Nutzlast der Delta 3914 und Atlas-Centaur zu starten. Das zweite Modul wurde dabei nie eingesetzt. Für größere Nutzlasten oder höhere Geschwindigkeiten entwickelte man eine modifizierte Version der Centaur D. Schaut man bei obiger Tabelle genauer nach, so sieht es für die hinreise gar nicht mal so schlecht aus: Von 25.7 t landen noch 10 t im geostationären Orbit. Davon entfallen nur 3 t auf die Stufe, so dass man netto nur für den Hinweg 7 t Nutzlast transportieren könnte. Dies ist auch in etwa die Nutzlast der Centaur G gewesen, die man für den Space Shuttle entwickelt hatte.

Sicherheitsaspekte nach dem Verlust der Challenger führten dazu, dass es nie zu einem Flug dieser Stufe kam. Die Air Force setzte eine eigene Oberstufe, die IUS ein, welche kompatibel zur Titan war, so dass man unabhängiger war. Diese Kombination brachte aber nur 2270 kg in den geostationären Orbit.

Damit war der Transport von Satelliten mit dem Space Shuttle an und für sich eine unattraktive Sache. Maximal 3 Delta Nutzlasten oder eine Nutzlast in der Titanklasse konnte er transportieren. So verschenkte man Zwei Drittel bis die Hälfte der Nutzlast und dies bei einem Startpreis der schon vor Challenger nicht deckend war und künstlich abgesenkt wurde um mit Ariane konkurrieren zu können.

So verwundert es nicht, dass selbst die NASA nach dem Verlust der Challenger Trägerraketen orderte. Anstatt die TDRSS Satelliten weiterhin mit dem Space Shuttle zu starten machte man dies nun mit Atlas Centaur Raketen. Kommerzielle Flüge waren sowieso verboten und das Militär sprang wegen des öffentlichen Interesses und der Unzuverlässigkeit im Zeitplan ab.

Ohne adaquate Oberstufen war das Shuttle System einfach unwirtschaftlich. Was blieb waren Spacelab Flüge, Missionen zur Mir die vor allem publizistisch nutzbar waren und später der Aufbau der Raumstation ISS. Letztere sicherte ab Mitte der neunziger Jahre das Überleben des Space Shuttles. Anders ausgedrückt: Man legte die Station so aus, dass sie vorwiegend mit dem Space Shuttle gebaut wurde. Das muss nicht so sein. Die russischen Module werden mit einer Proton Rakete gestartet und können selbstständig ankoppeln. Europa hat den ATV entwickelt der das auch kann, Japan den analogen HTV. Zumindest die Teile die man nur ankoppeln muss, also keine Montagearbeiten erfordern hätte man mit Raketen starten können.13 Module stehen unter Druck und werden in 12 Flügen gestartet. Diese wären auch mit Raketen startbar gewesen.

Damit rettete die NASA das Space Shuttle in das nächste Jahrtausend. Doch dafür war die ISS auf Gedeih und Verderb an das Space Shuttle gebunden. Als die Columbia beim Wiedereintritt verglühte fehlte nicht nur ein Space Shuttle sondern auch der Ausbau der ISS geriet ins Stocken. Fast hätte man sie ganz aufgegeben. Doch zum einen gab es internationale Verträge in denen man die Fertigstellung zusagte und zum anderen wäre das wohl eine nationale Bankrotterklärung gewesen. So fliegt das Space Shuttle weiter - bis die ISS fertig ist. Was dann mit ihr geschieht? Bislang gibt es dafür noch keine Pläne....


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99