Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 261: 31.12.2012 - 7.1.2012

31.12.2011: Bernd sucht den Superblogger!

Casting Shows sind in: Deutschland sucht das Supertalent, the Voice of Germany, den X-Factor und natürlich auch den Superstar. Zeit dass ich auch mal was "caste". Passend zu mir natürlich einen Superblogger. Ich habe ja schon angekündigt und die letzten Wochen auch praktisch durchgesetzt, dass ich nur noch alle zwei Tage blogge. Die Zwischentage will ich vor allem mit Gastblogs füllen, oder eben Musiktipps oder kleinen Splittern die keinen ganzen Blog lohnen. Aber am liebsten wäre mit wenn es dauerhafte Gastblogger gäbe, welche die Lücke füllen und auch die Themenvielfalt des Blogs erweitern.

Also Zeit mal einen Superblogger zu suchen. Hier die Regeln:

Also, ran an die Tastatur und Beiträge an bl "at" bernd-leitenberger.de schicken. Ich bin offen für alles Wir hatten hier schon wirre Weltanschauungen, Pläne für Mondbasen oder Erläuterungen wie die Containerschiffahrt funktioniert oder Einblicke wie Musik gemacht wird.

1.1.2012: Jeder kann heute einen Spionagesatelliten haben!

Beim letzten Start des ersten Satelliten des Plejades Systems flog auch als Sekundärnutzlast SSOT (Sistema Satelital para la Observación de la Tierra) mit. Dies ist der erste chilenische Erdbeobachtungs- / Spionagesatellit. Bei 110 kg Gewicht erreicht er eine Auflösung von 1,45 m am Boden. Wer sich ein bisschen in der Geschichte auskennt, dem fallen die ersten Erderkundungssatelliten des Landsat Systems ein, bei dem man mit 40-80 m Bodenauflösung auskommen musste oder die zweite Spionagesatellitengeneration Gambit. Diese hatte in etwa dieselbe Auflösung: und das waren über 2 t schwere Ungetüme.

So fragt man sich, wie ist das heute mit einem nur 100 kg schweren Satelliten möglich?

Nun ein weitverbreiteter Irrtum ist, dass man riesige Optiken braucht und diese die Hauptkonstruktionsherausforderung bei dem Bau sind.  Dem ist nicht so. Verwendet man ein beugungsbegrenztes Instrument, so reicht bei der angegebenen Orbithöhe von 620 km ein Teleskop mit einem Durchmesser von 25 cm. Eine Standardoptik dieser Größe, z.B. ein Meade ACF-10 wiegt 13 kg. Natürlich wird es bei größeren Optiken schwerer. (Wer mal selbst nachrechnen möchte, ohne Beweis, für diesen bei Raleight Kriterium und Dawes Kriterium nachsehen: es gilt: Eine Optik von 1 mm Durchmesser hat eine Auflösung von 1 mm in 1700 mm Entfernung. Mittels Dreisatz kommt man so auf die Auflösung/Durchmesser in jeder beliebigen Entfernung). Bei erdgebundenen Teleskopen gilt die Faustregel: doppelter Durchmesser = sechsfaches Gewicht. Doch selbst die 10 cm Auflösung, die manche Autoren für das Keyhole System propagieren, würde ein 120 cm Teleskop in 200 km Distanz erreichen - und das wiegt dann vielleicht 1 t - nicht so viel bei Satelliten mit über 15 t Gewicht.

Nein, das Problem liegt auf drei Ebenen: den Sensoren, der Datenspeicherung und der Datenübertragung.

Fangen wir mal mit den Sensoren an. Als die USA mit ihren Aufklärungssatelliten begannen, konnten hochauflösende Aufnahmen nur mit fotografischem Film anfertigen. Vidicons, also Videokameras, waren sehr kontrastarm, lichtunempfindlich und vor allem die Größe einer Röhre war begrenzt. Mehr als einige (Hundert Bildpunkte)² waren aus dem nicht so stark gewölbten Teil nicht auslesbar. Als man es beim Landsatsystem mit sehr großen Videoröhren von 5 cm Durchmesser versuchte, waren die Resultate nicht so überzeugend und man schmiss die Kameras nach drei Satelliten wieder von der Instrumentierung. Doch dies war schon 1972 und zehn Jahre früher waren die Möglichkeiten noch beschränkter.

Hinsichtlich Fläche und Auflösung (Feinkörnigkeit) konnte man in der Frühzeit der Raumfahrt nur Film einsetzen. 70 mm Film war ungefähr 6-7 mal größer als Vidiconröhren und die Auflösung war sogar doppelt so groß. Das Problem war es nur, den Film wieder zur Erde zurückzubringen. Die Alternative: Das Entwickeln an Bord und das Abtasten mit einer Photodiode wurde im militärischen Programm nie probiert. Wahrscheinlich, weil man befürchtete Kontraste zu verlieren, während man auf der Erde natürlich die Entwicklung genau steuern konnte, musste ja alles automatisch geschehen und durch das Digitalisieren gibt es weitere Verluste. Das wurde nur bei den Lunar Orbitern durchgeführt. Die konnten schließlich ihren Film nicht zur Erde zurückbringen. Das Umladen in eine Kapsel und deren Absprengen funktionierte recht gut. In Russland wurde gleich die ganze Wostok-Kapsel mit dem Kamerasystem geborgen - die war immerhin über 2 m groß.

Das löste auch die beiden folgenden Probleme: Datenspeicherung und -übertragung. Russland setzte noch bis weit in die neunziger Jahre Film als Medium ein. Vielleicht auch weil ihre Zenit Satelliten seit 30 Jahren praktisch unverändert produziert wurden und einfach eine unbemannte Wostokkapseln waren.

Kleine Satelliten mit hohen Auflösungen waren erst mit der Erfindung des CCD möglich. CCD sind sogar lichtempfindlicher als Film, anders als die Vidicons. Die Größe war allerdings lange beschränkt, weshalb z.B. die Spot Satelliten eine CCD-Zeile aus vielen Sensoren hatte. Heute ist das kein Problem mehr. CCD-Zeilen mit bis zu 24000 Pixeln Breite und Arrays mit bix zu 28 MPixeln sind verfügbar. Damit verbinden sie hohe Auflösung mit großer Fläche. (Die größten sind immerhin 17 cm breit). Von den Sensoren in einer Digitalkamera unterscheidet sie sich durch die Pixelgröße. Die liegt bei 5 - 24 µm. Zum Vergleich: Ein 14 MP Sensor in Digitalkameras im 1/1.8 Zoll Format hat Pixels von nur 1,6 µm Größe - entsprechend lichtunempfindlicher und verrauschter sind die Aufnahmen.

Eingesetzt werden heute vor allem Zeilen-CCD, dann muss man das Teleskop nicht bewegen, sondern die Ausleserate wird mit der Bewegung des Satelliten über die Erdoberfläche synchronisiert.

Das zweite ist die Datenspeicherung. Nehmen wir nur mal einen 150 km breiten Streifen mit 1,5 m Auflösung - dann sind das 100.000 Pixel in der Breite. Bei rund 7 km relativ zum Boden gibt es 5000 Zeilen pro Sekunde. Mithin produziert ein solches System rund 50 Millionen Pixel pro Sekunde, bei 8 Bit pro Pixel also rund 400 MBit/s. Diese Datenmenge wäre vor 30 Jahren nicht speicherbar gewesen. Es gab damals nur Magnetbandgeräte deren Kapazität und Datenrate beschränkt war. Erst Ende der neunziger Jahre kamen Halbleiterspeicher auf. Die ersten waren reine RAM-Rekorder, bestanden also aus normalem DRAM. Heute hat wie in Digitalkameras das Flash-RAM die Funktion eines Datenspeichers.

Diese Datenmenge muss dann noch zum Erdboden übertragen werden. Für kleinere Länder die kein Satellitensystem dafür aufbauen können, ist der wesentliche Fortschritt eigentlich der dass man in den Frequenzen sich nach oben gehangelt hat. In den sechziger und siebziger Jahren benutzte man noch das UHF- und teilweise S-Band, heute wird im X-Band gesendet. Bei gleicher Sendeleistung und Größe der Sendeantenne ist dabei die Datenrate erheblich höher. Die USA nutzen wahrscheinlich ihre militärischen Kommunikationssatelliten auch zur Datenübertragung der Aufklärungssatelliten, die im Weltraum auch das noch höherfrequente Ka-Band nutzen können. Tests mit noch höheren Frequenzen werden derzeit unternommen und selbst Deutschland experimentiert mit optischer Datenübertragung die noch höhere Datenraten zulässt und viel abhörsicherer ist.

Kleine Nationen positionieren besser eine oder bessere mehrere Satellitenempfangsstationen nahe des Pols, da dieser bei den sonnensynchronen (fast polaren) Bahnen bei jedem Umlauf passiert wird. Somit gibt es bei jedem Umlauf die Gelegenheit Daten zu übertragen. Deutschland betreibt z.B. in Norwegen und bei einer Insel zwischen Chile und der Antarktis zwei Empfangsstationen für TerraSAR und Tandem-X. Würde Deutschland nur eine Station auf eigenem Gebiet betreiben, so würde es nur alle paar Umläufe einen Kontakt geben.

Alle Möglichkeiten zusammen führen dazu dass man heute mit einem 110 kg schweren Satelliten eine Bodenauflösung von 1,45 m erreicht - gut genug für viele militärische Zwecke. Viel besser sind die Plejades Satelliten oder SarLupe auch nicht. Hexagon/Kennan ist noch eine Klasse besser, aber diese Generation scheint nun auszusterben, es gab seit Jahren keinen neuen Start.

3.1.2011: Neues zu SpaceX

Wie könnte man das neue Jahr schöner beginnen, als mit meiner "Lieblingsfirma". Diesmal allerdings sachlich, denn ich habe wieder einige Daten zu präsentieren. Ich bin auf dieses NASA Dokument gestoßen dass nun endlich mal die Trockenmasse der beiden Stufen präsentiert. Die Treibstoffzuladung war ja schon von den Testflügen bekannt. Ich bin ein wenig stolz, denn ich habe Voll/Leermasse beider Stufen recht genau geschätzt. Bei der zweiten auf 48.8/3 t (genau 46.95/2.957) und bei der ersten auf 257.3/15.4 t (genau: 251.7 / 17.7 t). Ein bisschen geärgert habe ich mich bei der ersten Stufe, denn in einem älteren Aufsatz setzte ich die Leermasse auf 17,7 t an, bevor ich sie nachdem ich bei SpaceX lass, dass der Triebwerksblock 7,7 t wiegt und 50% der Startmasse hat, auf 15,4 t korrigierte. Man sollte ihnen eigentlich nichts mehr glauben...

Neben den genauen Daten ist nun auch die Nutzlast errechenbar, das heißt, man muss nun nicht mehr SpaceX glauben. Beim letzten Flug erreichte eine 5,2 t schwere Dragon den Orbit (nach COTS Datasheet). Die zweite Stufe zündete dann erneut und erreichte einen elliptischen Orbit mit einem 11000 km hohen Apogäum (Quelle). Da die Treibstoffzuladung und Geschwindigkeitsbedarf bekannt sind, kann man errechnen wie viel Geschwindigkeit die zweite Zündung erbrachte (1569,3 m/s) und basierend auf dem spezifischen Impuls wie viel Resttreibstoff dies in den Tanks hinterlässt (1804 kg), und damit ist es dann errechenbar, wie hoch die Nutzlast ist, wenn kein Resttreibstoff verbleibt.

Ich komme für die Bahn beim zweiten Testflug (288 x 301 km, 34,5° Bahnneigung)  auf 7183 kg. Das ist verdächtig nahe an den 6800 kg die im Usersguide als "typical Payload" angegeben sind und wahrscheinlich dann die Nutzlast für die ISS Übergangsbahn (höhere Bahnneigung) ist. Das passt auch zu dem Gewicht der Dragon von 5200 kg und den 1667 kg vertraglich zu transportierende Nutzlast pro Flug.

Dumm nur, wenn man auf der Website 10,45 t Nutzlast für ein Block II Design angibt. Da dabei die Startmasse nur auf 333,4 t (von 313 t) steigt und die Tanks voller gefüllt sind, halte ich so was für kaum möglich. Ich komme auf 8.490 kg für Block II, das allerdings wahrscheinlich kaum zum Einsatz kommt, schließlich sollen ja schon bei Flug 7 die Merlin 1D und verlängerte Stufen zum Einsatz kommen.

Nun ja die richtigen Wunderdinge kommen ja noch bei der Block III mit Strukturfaktoren von 3,3% und Triebwerken der 700 kN Klasse und Schub/Gewichtsverhältnissen von 160 ...

Wer in dem NASA Dokument blättert stößt auch auf die Angabe, dass zwei Testvehicles SpaceX 143,6 Millionen Dollar kosteten - ohne Reserven und ohne Gewinn. Macht also 71,8 Millionen Dollar pro Stück. Okay, bei höherer Stückzahl werden sie billiger, aber die Firma will ja noch Gewinn machen und braucht ein paar Reserven, die z.B. bei dem "Commercial" Ansatz in Rechnung gestellt werden. Also bezweifele ich, dass die Startkosten von 54 Millionen erreichbar sind. Wohl eher bleibt es bei 70-80 Millionen. Damit ist die Rakete in etwa so teuer wie eine Delta 2 und hat auch fast deren Nutzlast, denn die liegt ja nicht bei 10,45 t sondern bei 7 t...

Was übrigens auch niemanden außer mir auffällt, ist der rapide Preisanstieg bei SpaceX: Als die Falcon 9 vor 5 Jahren angekündigt wurde kostete sie noch 27 - 35 Millionen Dollar. Nun sind es 54 - 59,5 Millionen. Also fast doppelt so viel, dabei hatte die damals noch eine Nutzlast von 8,7 - 9,3 t. Also dasselbe Spiel wie bei der Falcon 1: Nutzlast runter Startpreise hoch. In 5 Jahren ist die Falcon 9 pro Kilo um mehr als 150% teurer geworden.

Es gibt auch passend dazu das Statement von Le Gall. Demnach ist SpaceX keine Konkurrenz für Ariane und er sieht deren Modell ebenso pessimistisch. Das verwundert den Autor nicht, denn die Flacon 9 ist als Rakete mit mittelenergetischen Treibstoffen und nur zwei Stufen nicht gut geeignet für GTO Transporte. Dann macht die leere zweite Stufe schon einen Großteil der Bruttomasse aus. Ich errechne für das Block I Design eine Nutzlast von etwa 1600 kg in einen 185 x 35786 km Orbit mit 28,8 Grad Inklination. In einen energetisch zu Kourou äquivalenten supersynchronen Orbit von 185 x 60000 km sind es nur noch 1200 kg.  Das ist zum einen zu wenig, zum andern sind die Kosten pro Kilo deutlich zu hoch. Damit die Falcon 9 Block I bei 59 Millionen Dollar Startpreis die Ariane 5 unterbietet (160 Millionen Euro, aus Einnahmen von SpaceX und Subventionen geteilt durch Startzahl errechnet) müsste sie eine Nutzlast von 2836 kg aufweisen und das ist derzeit nicht der Fall. Nimmt man den den Kunden in Rechnung gestellten Preis, so müssten es sogar 3.200 kg sein. So ist der angebliche Preisbrecher SpaceX zumindest bei den GTO Transporten keiner mehr.

Okay, das waren nun keine Videos und Powerpoint Diagramme, sondern nur Tatsachen, aber die zählen ....

5.1.2012: Bemannte Raumfahrt könnte billig sein!

Wenn es um bemannte Raumfahrt geht senkt jeder daran wie teuer sie ist. Doch eigentlich müsste das Gegenteil der Fall sein. Warum? Nun unbemannte Raumfahrt ist teuer, weil alles so ausgelegt sein muss, dass es über Jahre funktioniert, absolut zuverlässig. Eine Reparatur ist unmöglich. Redundanz, Tests und Kontrollen sind das Stichwort dafür, dass man dies erreicht. Wenn wir von bemannter Raumfahrt sprechen, brauchen wir erst mal für die Menschen eine stabile Druckhülle, sie muss das Gas innen lassen, sicher vor Mikrometeoriten schützen und natürlich auch temperaturreguliert sein. Zack - sparen wir schon mal die ausgeklügelte Temperaturregulation bei Satelliten, ein Ventilator und Heizelemente reichen aus. Kein Vakuum stört und macht den effizienten Wärmetransport über Konvektion unmöglich. Russland kopierte über Jahre hinweg dieses Prinzip bei zahlreichen Satelliten und Raumsodnen.

Dann muss alles bei Satelliten so ausgelegt sein, dass möglichst keine Störung auftritt. Ansonsten wird es schwierig, aus der Telemetrie die Situation zu erkennen und bei fatalen Dingen rechtzeitig einzugreifen, Bein einem bemannten Raumfahrzeug ist ein Mensch an Bord. Er sieht was los ist und kann sofort reagieren. Als bei Gemini 8 durch einen technischen Defekt eine Düse dauernd zündete und die Kapsel in die Rotation geriet konnte Armstrong diese stoppen und eine Notlandung einleiten. Bei einem bemannten Raumfahrzeug wäre es wohl verloren gewesen. Man denke nur an Phobos Grunt, die taumelnd um die Erde kreist, ohne das man einen Funkkontakt herstellen konnte.

Wenn ein bemannte Raumfahrzeug richtig ausgelegt ist, ist es mit der Kombination Mensch + Gefährt richtig sicher. Denken wir mal an eine Kapsel, die an einer Raumstation hängt. Fällt die Raumstation aus, so kann man jederzeit ablegen und zur Erde zurückkehren. Klappt die Zündung der Kapsel  nicht durch den Computer, so kann die Besatzung wenn sie direkte Kontrolle hat sie in die richtige Richtung drehen und die Triebwerke manuell zünden. Hat sie eine entsprechende Form, so rotiert sie durch den Schwerpunkt und aerodynamische Kräfte automatisch so, dass der Hitzeschutzschild in die Flugrichtung zeigt. Dann gibt es nur noch die Landung. Fallschirme die schwere Gegenstände abbremsen gibt es beim Militär seit Jahrzehnten. Sie sind erprobt und bewährt. Wenn sie nicht automatisch ausgelöst werden, dann kann man sie manuell auslösen.

Kurzum: Wenn noch ein Rettungsturm dazu kommt, sollte ein bemanntes Raumfahrzeug sicher vom Start bis zur Landung sein. Selbst wenn es beschädigt wird, so schützt der Raumanzug die Besatzung. Zudem wird es eigentlich nur einige Tage lang betrieben, nicht Monate oder Jahre. Es muss nur so lange inaktiv im Orbit verharren können. So sparen wir und eine Regeneration der Luft und des Wassers bei dieser kurzen Zeiot weitgehend ein. Ausreichende Vorräte wiegen für Kurzzeitmissionen nicht viel, selbst auf Solarzellen kann man verzichten und mit Batterien auskommen.

So gesehen, sollte es auch preiswert zu produzieren sein, denn ausgeklügelte Systeme können eingespart und durch die direkte Kontrolle durch die Besatzung ersetzt werden. Dazu kommt, dass man eine Kapsel in Serie produziert und so Kosten spart, denn die Entwicklungskosten fallen nur einmal an. Dagegen werden Satelliten nur als Einzelexemplare produziert.

Und: bemannte Raumfahrt ist auch preiswert. Kürzlich sah ich einen Film über Ansari, eine der letzten Weltraumtouristinnen. Sie bezahlte 20 Millionen Dollar, was nach diesem Bericht fast die Hälfte des ganzen Starts ausmacht. Also kann man den auf 50 Millionen Dollar ansetzen. Nun sind nicht russische Preise vergleichbar mit den westlichen: Russland zahlte vor einigen Jahren auch nur 20 bis 25 Millionen Dollar für eine Proton, während sie im Westen für 90 bis 100 angeboten wurde. Nimmt man diese Differenz um den Faktor 4, so kommt man aber immer noch auf überschaubare 200 Millionen Dollar. Der Start eines über 7 t schweren Satelliten wäre auch teurer.

Auch im Westen war dem so. Die Fertigungskosten einer Gemini-Kapsel betrugen 13 Millionen Dollar. Die Startkosten weitere 10 Millionen. Dies auf der Preisbasis von 1965. Das wären 164 Millionen in heutiger Währung: Die beiden Mariner 6+7 Sonden die etwa zur gleichen Zeit gebaut wurden waren mit 146 Millionen Dollar erheblich teurer. Okay dazu kämen noch die Missionskosten, die damals schon wegen der Bergungsflotte teuer waren. Aber das Preisschild ist vergleichbar mit dem der Sojus.

das es zeigt, dass es anders geht. Warum ist dann US-Raumfahrt heute so teuer? Die Gemini waren auf ein "Loss of Crew" Risiko (LOC) von 1:200 ausgelegt. Orion sollte 1:2000 aufweisen. Atlas V und Delta 4 als Träger wurden z.B. abgelehnt, weil mit ihnen kein LOC unter 1:1000 zu erreichen war. Wie immer wird es extrem teuer, wenn die Anforderungen extrem sind. Die Frage ist ob es nötig ist. Das Shuttle hat ein LOC von 1:60 bis 1:80 je nach Umlaufbahn. Ein Risiko von 1:200 würde bei 4 Flügen pro Jahr zur ISS, wie es nun der Fall ist einen Unfall alle 50 Jahre bedeuten. Kritiker werfen der NASA beim CCDev vor, als Kunde nicht mehr die Möglichkeit zu haben, ihre Standards durchzusetzen, sondern sie kaufen eben fertige Produkte. Wenns nicht sicher ist, dann ist das Problem der NASA - nun ja außer dem PR-Risiko, das bleibt bei der NASA hängen. Das sollte sich nächstes Jahr ändern, als der Auftrag für zwei Raumschiffe erwartet wurde. Aber da nun die Mittel weniger als halb so viele wie die beantragten sind , wird sich da nichts dran ändern. Und das Firmen durchaus jemanden brauchen, der ihnen auf die Finger klopft zeigte schon die Vergangenheit. Nach dem Feuer von Apollo 1 wurde die Kapsel und ihre Konstruktion genau untersucht und man stellte erschreckend viele Versäumnisse und niedrige Sicherheitsstandards fest. Und als der erste Moonlander von Grumman ans Cape für Abnahmetests geliefert wurde, bekam der Grumman Chef nach Kontrollen vorgeworfen, er würde "Trash" liefern und der Lander würde "lecken wie ein Sieb". Er hatte die Dichtigkeitsprüfungen nicht bestanden. Er flog nie ins All.

Es wird spannend zu sehen was die NASA als nächstes macht. Wird sie dem politischen Druck nachgeben und den Anbieter wählen der am billigsten ist, aber vielleicht nicht gerade bisher durch hohe Sicherheitsstandards und umsichtige Arbeit auffiel, weil das Budget laufend sinkt, oder nicht?

7.1.2012: Buchkritik: The NASA Atlas of the Solar System

Ich habe eine Wunschliste, das sind Bücher, die mir neu zu teuer sind, und bei denen ich warte bis sie preiswert erhältlich sind, entweder gebraucht oder weil eine neue Auflage erschien. Manche schaffen es wohl nie gekauft zu werden wie das Buch "International Reference Guide to Space Launch Systems", andere sind mal billig erhältlich. Dazu gehört auch dieses Buch. Es gibt Taschenbücher, Bücher, Wälzer und es gibt den NASA Atlas. Ich habe wohl nicht genau genug geguckt bei Amazon und war dann doch überrascht was ich bestellt hatte. Das Bild zeigt hier das Buch verglichen mit der SuW (DIN-A4) oder meinem Skylab-Buch (17 x 22 cm, etwas größer als DIN A-5) und es ist schwer. 3,5 kg zeigt meine Wage an, das ist so viel wie meine Katze wiegt und die halten sie nicht lange freihändig ....

Zum Inhjalt ist wenig zu sagen. Es ist das drinnen was drauf steht: Karten. Es beginnt mit einer Einführung wie das Bildmaterial gewonnen, verarbeitet und zu Karten aufbereitet wird. Danach kommt eine Einführung in die Prozesse die die Oberfläche formen und bei jedem Himmelskörper dann auch etwas was nun speziell bei diesem ist und wie es zu diesen oder jenen Formationen kommt. Der Textanteil ist gering, auf eine Zeile kommt eine Leerzeile und der Rand ist auch großzügig. Das Niveau ist auch für Laien gedacht, wahrscheinlich weil das Buch auch mehr als Protzband gedacht ist. Dann folgen die Karten, je nach Güte des Materials wird es durch Photomosaike und geologische Karten ergänzt. Letztere sind wirklich ein Mehrwert, da man diese sonst eher selten in Büchern findet. Der Textteil ist dann noch garniert von zahllosen Fotos der Raumsonden.

Im Anhang kommt ein Glossar, eine Übersicht aller Raumsonden, Umrechnung von Einheiten, Tipps für weitere Bücher und Quellen für Bilder und ein Index aller geologischen Formationen, falls sie mal suchen wollen wo der Gale Krater auf dem Mars ist ...

Zusammen sind es 372 Seiten, für die ich 15 Euro bezahlt habe. Warum es so billig ist? Das ist der größte Nachteil. Es erscheint 1997. Das bedeutet: die Bilder von Mond, Venus, Utanus und Neptun sind noch aktuell. In dem Maßstab der abgebildet wird kann man das auch noch für den Mars sagen. Aber es fehlen sowohl die neueren Galileo-Aufnahmen, wie auch die von Cassini vom Saturnsystem und natürlich die Messenger Aufnahmen. Die geologischen Karten hätten auch von den letzten Marsmissionen profitiert.

Das Buch gibt es in zwei Ausgaben. Da ist einmal die kleinere Ausgabe (The Compact NASA Atlas of the Solar System), die auch etwas jünger ist und The NASA Atlas of the Solar System, die Ausgabe die ich habe. Ich rate beim Kauf zur ersteren. Sie enthält den gleichen Inhalt (nichts wurde aktualisiert), aber das Originalbuch ist einfach zu schwer und zu sperrig. Man kann es nur lesen wenn es auf einem Schreibtisch liegt. Man sollte ab und an auch schauen ob man es gebraucht billiger bekommt. Jetzt ist es etwas teurer als die Taschenbuchausgabe, doch ich habe es vor einigen Monaten für 15 Euro gekauft - die 7 eingesparten Euro zur Taschenbuchausgabe haben sich nicht gelohnt, wenn man an den Aufwand beim Lesen denkt und einen Platz im Regal musste ich auch erst freiräumen.

Das Buch ist mehr etwas für Leute die gerne in Bildern schwelgen. Es ist weniger ein Lehrbuch oder ein Buch zum Informieren. Aber die Karten und Bilder sind wirklich eindrucksvoll.

9.1.2011: Wie rekonstruiert man Raketendaten?

Heute mal eine Einführung in eine Technik, von der ich meinte, dass man sie nach Öffnung der Sowjetunion nicht mehr nötig hat - dem Rekonstruieren von Raketendaten aus wenigen unvollständigen Angaben. Doch dank Träger in Drittweltländern wie der Naro oder Safir, oder Firmen die keine Daten veröffentlichen ist diese Kunst auch heute noch gefragt. Ich will mal zeigen wie man die Daten der Falcon 9 Block III rekonstruiert, die ja im April 2011 angekündigt wurde.

Das wichtigste ist zuerst einmal so viele Daten wie möglich zu sammeln. So wissen wir vom Merlin 1D, dem Haupttriebwerk, dass sie antreibt:

Da die Falcon 9 Block III aus dem Block I Design entstand, ist es nützlich dies als Vergleich zu nehmen. (Daten für die Trockenmasse nach dem NASA Dokument. Die Treibstoffzuladung wurde bei den Flügen jeweils genannt, spezifische Impulse stehen im COTS Data Sheet.

Eine erste Überlegung ist folgende; Wenn die Falcon Heavy zwei Erststufen als Booster einsetzt, dann kann man daraus die Masse der ersten Stufe berechnen. Das würde so gehen:

Einige haben es so versucht, doch das führt in die Irre. Dieser Wert für die zweite Stufe ist viel zu klein. Es gibt eine Reihe von möglichen Erklärungen. Die Wahrscheinlichste ist einfach ein gerundeter Wert für die Vollmasse der Rakete oder dass dies nur für die Rakete, aber nicht für Rakete + Nutzlast gilt oder eben ireführnde Daten, wenn man es ganz böse sehen will...

Ein realistischer Herangehensweise ist, dass man die Stufen einfach verlängert hat. Da die Technologie bei den Stufen dieselbe bleibt, würde so das Stufenverhältnis erhalten bleiben und damit die maximale Nutzlast. Schlussendlich kann man annehmen, dass diese vorher bei dem Block I so nach umfangreichen Simulationen festgelegt wurde. Block III wiegt 480 t beim Start, Block I 313 t. Das ist der Faktor 1.535. Überträgt man dies auf die bekannten Massen kommt man auf:

  Vollmasse Leermasse spezifischer Impuls
erste Stufe 401,4 t 27.1 t 3040 m/s
zweite Stufe 70.4 t 4.5 t 3361 m/s

Das kann eine erste Schätzung sein. Es gibt aber noch eine zweite Möglichkeit, die Masse der zweiten Stufe abzuschätzen. Die maximale Beschleunigung soll 6.0 g nicht überschreiten. (zugesicherte Eigenschaft der Rakete). Dies muss auch bei GTO Transporten (mit 5 t Nutzlast) der Fall sein. Dafür ist das Merlin 1D im Schub reduzierbar. Kurz vor Brennschluss der ersten Stufe muss es also mindestens 70% des Maximalschubs erreichen. das sind 9 * 690 kN * 0.7 = 4347 kN. Bei 6.0 g entspricht dies einem Gewicht von 73,9 t.

Diese 73,9 t sind nun das minimale Gewicht der Rakete zu diesem Zeitpunkt also: Leermasse erste Stufe + zweite Stufe + Nutzlast. Nimmt man 5 t für die Nutzlast an und das Voll/Leermasseverhältnis von 30, so kommt man auf die Leermasse der ersten Stufe. Da auch die Gesamtmasse bekannt ist und der Treibstoff aus der Leermasse der ersten Stufe berechenbar ist, so kommt man mit etwas Excel Akrobatik oder Dreisatz auf 408,7 t für die erste Stufe (Leer: 13,6 t) und 55.3 t für die zweite Stufe. Die zweite Stufe kann schwerer sein, aber nicht leichter. Wenn die Firma die Belastung mehr auf übliche Werte senken will (z.b. 5.5 g), so ergibt sich dann schon eine minimale Masse von 6^,6 t.

Bleibt noch eine Abschätzung für das Leergewicht. Wenn die SpaceX Angaben stimmen, dann wiegt die verlängerte erste Stufe weniger als beim Block I Design. Das trifft auch auf die Triebwerke zu (Merlin 1C: 630 kg, Merlin 1D: 430 kg). Bei der ersten Stufe resultiert alleine durch die leichteren Triebwerke eine Einsparung von 1800 kg. Bei der zweiten sind es nur 200 kg. Daher ist es unwahrscheinlich, dass die zweite Stufe leer leichter ist die von Block I. Das die erste leichter ist, ist in der Tat möglich, da LOX/Kerosin die Tankvolumina klein sein. Eine Abschätzung mit bekannten Erfahrungswerten ergibt, dass die 140 t mehr Treibstoff durchaus in einem 1-1.3 t schweren Tank unterzubringen sind. Lassen wir den SpaceX Ansatz also für die erste Stufe stehen und nehmen an dass die 200 kg weniger bei der zweiten Stufe dem zusätzlichen Tankgewicht entsprechen soll, so kommt man auf folgende Abschätzung:

  Vollmasse Leermasse spezifischer Impuls
erste Stufe 408,7 t 13,6  t 3040 m/s
zweite Stufe 55.3 t 3 t 3361 m/s
Dazu noch einige Anmerkungen: Das Voll/Leermasseverhältnis von 30 für die Stufe und das Schub/Gewichtsverhältnis von 160 ist schon rekordverdächtig. Zumindest für die Zentralstufe der Falcon 9 erwarte ich schlechtere Werte, weil hier zum einen der Stufenadapter noch dazu kommt (typisch: 300 bis 500 kg, bei der langen Expansionsdüse des Zweitstufentriebwerks leicht mehr) und wegen des Gewichts der Oberstufe strukturelle Versteifungen nötig sind welche die Booster der Falcon 9 Heavy nicht haben und nur diese sollen ja diesen Wert erreichen. Da die Oberstufe und Nutzlast weiterhin Last erzeugen, ist die Strukturmasse typischerweise um 1% der Masse der Oberstufen erhöht, also hier bei maximal 82 t mit Nutzlastspitze = 820 kg höhere Strukturmasse. Nimmt man die größere Stufe an und berücksichtigt auch die höhere Nutzlast der Falcon Heavy so sind es sogar 1250 kg. Realistisch halte ich daher eine Leermasse von >15 t für die erste Stufe:

  Vollmasse Leermasse spezifischer Impuls
erste Stufe 408,7 t 15  t 3040 m/s
zweite Stufe 55.3 t 3 t 3361 m/s

Die Falcon Heavy hätte dann folgende Daten:

  Vollmasse Leermasse spezifischer Impuls
erste Stufe 3 * 408,7 t = 1226,1 t 2* 13,6  t + 15 t = 42.2 t 3040 m/s
zweite Stufe 55.3 t 3 t 3361 m/s
Das ganze ist aber nach wie vor nicht schlüssig. So ist diese Rakete bei der Falcon heavy um 45 t leichter als die SpaceX Angaben und wenn man die Endgeschwindigkeit errechnet, kommt man nicht auf denselben Wert wie bei der Falcon 9 - es sind 400 m/s weniger und das ist durch niedrigere Gravitationsverluste nicht in dieser Höhe zu erklären. Dabei müsste die zweite Stufe ja sogar schwerer sein (30 t höhere Maximalnutzlast = höhere Lasten), wie immer machen die SpaceX Angaben wenig Sinn, auch weil die Nutzlasten recht optimistisch sind. Setzt man z.B. dieselbe Geschwindigkeit der Falcon 9 Block III für die Falcon Heavy wie für die Falcon 9 an, so kommt man auf 38,5 t Nutzlast.

Methode 2

Hat man die Nutzlast für zwei unterschiedliche Orbits, so kann man relativ genau die Trockenmasse der letzten Stufe ermitteln. Die zugrundenliegende Tatsache ist die, dass für die erste Stufe es fast keinen Unterschied macht, ob sie eine 16 t hohe Nutzlast in den LEO Orbit befördert oder 5 t in den GTO Orbit. Das ändert die Startmasse nur um 2% und die Brennschlussmasse um 13%. Dagegen macht es für die zweite Stufe einen Unterschied, denn sie muss praktisch fast die gesamte Geschwindigkeitsdifferenz aufbringen. Die Vorgehensweise ist relativ einfach: Man berechnet einmal die theoretische Nutzlast für beide Orbits. Weichen sie deutlich von den von SpaceX angegebenen Werten ab, ändert man die Trockenmasse der zweiten Stufe bis es passt. So passt die anfängliche Trockenmasse von 3 t nicht zu einer GTO Nutzlast von 5 t. Sie müsste höher sein. Mit 4 t Trockenmasse passen beide Daten zusammen. Das würde dann auch zu einer etwas größeren Stufe passen. Damit erscheint die oben skizzierte "gestretchte" Falcon 9 Block I wahrscheinlicher zu sein.

Das ganze ist aber fehlerträchtig, zumal die Werte nur mündlich von Elon Musk stammen, aber die Website nach wie vor die Falcon 9 in alten Daten (Block II) präsentiert. Zuletzt könnte ein supersynchroner (Ariane 5 kompatibler) Orbit gemeint sein und dann würde alles schon wieder anders aussehen - die Methode geht nur wenn die Nutzlast bestätigt sind. Das war bei den Sowjets früher kein Problem, da Startgewicht von Raumsonden und Sojus/Saljut bekanntgegeben wurden und man so leicht rechnen konnte, aber bei SpaceX sind es eben noch keine verifizierten Daten.

Methode 3

Wenn es zu wenige Daten gibt, wie dies beim Anfang bei der Falcon 9 der Fall war (nur Nutzlast und Startmasse), dann kann man zwei Dinge tun: Raumfahrtwissen anwenden oder Ähnlichkeiten suchen.

Raumfahrtwissen anwenden heißt: Es gibt Gesetzmäßigkeiten nach denen Raketen konstruiert werden. Bei ähnlichen spezifischen Impulsen bei den Stufen kann man annehmen, das gilt: Stufe 1 / Stufe 2 ~ Stufe 2 / Nutzlast. Dann bringen beide Stufen die gleiche Geschwindigkeit auf und die Nutzlast wird bei gegebenem Startgewicht maximal. Das ist auch bei der Falcon 9 so. Es gilt bei Block I: Stufe 1/Stufe 2 = 5,7 und Stufe 2/Nutzlast = 6.4 (bei 7,2 t Nutzlast siehe mein Blog über reale Nutzlast der Falcon 9).

Das zweite ist es, vergleichbare Träger zu suchen. Die physikalischen Gesetze gelten ja für alle. Bei der Falcon 9 wären dies andere Träger die LOX/Kerosin einsetzen und in etwa dieselbe Masse aufweisen. Unter den Trägern mit bekannten technischen Daten bietet sich hier die Zenit an, mit derselben Treibstoffkombination. Man macht aber nur einen kleinen Fehler, wenn man einen der zahllosen Träger mit lagerfähigen Treibstoffen als Vergleich nimmt, da die Leermasse von den Tanks mit bestimmt wird und hier unterschieden sich die Dichten von LOX/Kerosin und UDMH/NTO kaum.

Aufgrund dessen kann auch der Laie leicht erkennen, dass die ursprünglich genannten Nutzlasten für die Falcon 9 nicht realistisch waren, denn bei 333 t Startgewicht sollte die Falcon 9 eine Nutzlast von 10,45 t aufweisen (3,2%), während es bei der Zenit, mit leistungsfähigeren Triebwerken nur 3,0% sind.

Insgesamt ist allerdings SpaceX bei den Berechnungen schon die Königsklasse, weil die Daten nicht realistisch sind (Nutzlasten), oder gemischt (Block I/II Design) und sehr rudimentär. Die Berechnung der Daten von russischen Trägern in den achtziger Jahren, als diese noch bekannt waren war erheblich einfacher. Auch mit Trägern von Iran und Nordkorea tut man sich einfacher als mit SpaceX. Mehr Glasnost, Genosse Musk!

Die Nutzlast

Eher selten bei normalen Trägern der Fall, eher bei "selbstkonstruierten" Trägern der Fall ist, dass man die Nutzlast wissen möchte. Nun es dürfte klar sein, dass eine Rakete eine höhere Geschwindigkeit erreichen muss als für einen Orbit benötigt wird. Es gibt "Verluste" in Form von

Macht man eine Tabelle über bekannte Träger und ich habe so etwa 200 verlässliche Werte von Trägern, so kommt man auf 1200 bis 2400 m/s mehr. Am unteren Ende sind Feststoffraketen und früher Trägerraketen mit kurzer Brennzeit und am oberen Träger mit langer Brennzeit (Rekordhalter Ariane 5 ECA mit bis 1800 s). Die meisten Träger mit flüssigen Treibstoffen liegen bei 1500 bis 1800 m/s.

Dann kann man einen Schätzwert annehmen wenn man die Nutzlast berechnen will. Diese Vorgehensweise ist auch bei der Falcon Familie möglich- Gute Vergleichswerte wären hier Raketen wie die Titan II. Bei SpaceX bietet sich das Vorgängermodell Falcon 1 mit denselben Triebwerken und ähnlichen Brennzeiten an. Gestartet von Kwajalein weist sie einen Verlust von 1728 m/s auf. Die Falcon 9 kommt nach meinen Rechnungen auf 1844 m/s, was auch im Einklang mit der etwas geringeren Startbeschleunigung steht. Die Falcon Heavy würde auf nur 1476 m/s kommen, wenn sie die Nutzlast hätte die SpaceX auslobt. Das ist unwahrscheinlich, wahrscheinlicher ist das eher die Verluste gleich hoch sind und die Nutzlast mit 38-40 t geringer als angegeben.

Finale

Nachdem ich nun einige Methoden zur Abschätzung gegeben habe, nun die Frage, was ich tatsächlich für eine realistische Annahme enthalte. Nun es ist diese Rakete:

  Vollmasse Leermasse spezifischer Impuls
erste Stufe 401,4 t 16 t 3040 m/s
zweite Stufe 70.4 t 4.5 t 3361 m/s?

Dies ist die modifizierte lineare Interpolation von Block I. Die Erststufe wurde deutlich leichter, berücksichtigt aber noch den Stufenadapter und die strukturelle Verstärkung für schere Oberstufen. Ich komme auch bei dieser Rakete bei 16 t LEO Nutzlast fast auf gegebene GTO Nutzlast (5.2 t - Space Angaben 5.0 t). Sodass dies recht verlässlich erscheint. Allerdings weicht eine Falcon Heavy auf Basis dieser Rakete schon deutlich ab - die 45 t angegebene Nutzlast erscheinen damit nicht möglich und dies wird auch bei jeder anderen Konfiguration so sein, weil sich die Stufenverhältnisse stark verschoben haben. Also entweder ist diese zu reduzieren, oder es handelt sich um unterschiedliche Träger (z.B. verlängerte zweite Stufe bei der Heavy).


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99