Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 346: 1.9.2013 - 3.9.2013

1.9.2013: Der Nutzen erdnaher Kommunikationssatelliten

Betrachtet man die Geschichte der Kommunikationssatelliten, so setzte sehr bald nach den ersten Versuchen in erdnahen Orbits der Sprung in den geostationären Orbit ein, dessen Nutzen Arthur C. Clarke schon 1948 erkannte. Zu der Geschichte gibt es auch einen Aufsatz auf der Website. Seit 1963 fanden dann fast 40 Jahre lang zumindest im Westen nur noch Starts in den GEO Orbit. Rein theoretisch kann man vom GEO Orbit mit drei Satelliten eine Kommunikationsverbindung rund um die Erde aufbauen - vorausgesetzt man hat eine Empfangsstation und der Empfänger ist nicht zu weit nördlich.

Russland hat den GEO Orbit erst relativ spät erreicht und bis vor wenigen Jahren auch wenige Satelliten dorthin gestartet. Der Grund, und das ist auch die wichtigste Einschränkung des Orbits ist die geographische Lage. Hin zu den Polen steht der Satellit immer tiefer über dem Horizont. Es kann zum einen durch Gebäude, Berge oder ähnliches die Verbindung unterbrochen werden und selbst wenn dies nicht der Fall ist, so ist sie schlecht weil Reflexionen durch den Erdboden sie stören. Russland, bei dem ein Großteil der Landmasse weit nördlich liegt, startete daher vor allem Satelliten des Molnija Systems. Satelliten mit einem Perigäum unterhalb von 500 km, einem Apogäum bei 40.000 km und einer Umlaufszeit von 12 Stunden. Diese Bahn hat das Apogäum über 65 Grad nördlicher Breite. Rund um das Apogäum bewegt sich der Satellit kaum. Die Antennen müssen nur wenig nachgeführt werden. 8 von 12 Stunden gibt es einen Funkkontakt, das Perigäum auf der Südhalbkugel wird dagegen schnell durchlaufen. Drei Satelliten ergeben ein operationelles System mit 24 Stunden Verfügbarkeit. Es wurde zuerst militärisch, später auch zivil genutzt. Über 170 Molnija Satelliten hat Russland gestartet.

Ende der 90er Jahre gab es dann neue Pläne für ein erdnahes System. Bei den geostationären Kommunikationssatelliten hatte sich viel getan. Die ersten erforderten sehr große Empfangsstationen. Durch stärkere Sender und Parabolantennen bei den Satelliten waren ab Ende der Siebziger Jahre die Empfangsantennen "nur" noch 2-3 m groß und Privatpersonen konnten sich Satellitenfernsehen leisten (einige missbrauchten es auch für private Telefongespräche, das sollte besonders gut bei den Fleetsatcom Satelliten der US-Navy gehen). Den Durchbruch für die breite Masse gab es 1989 mit dem ersten Astra, der durch stärkere Sender, die Nutzung des 12-14 GHz Bandes und eine gut bündelnde Parabolantenne die Größe der Schüssel auf 90 cm begrenzte und damit sank der Preis für eine Anlage auf unter 1000 DM. Satellitenfernsehen wurde in Europa schnell populär. Erstaunlicherweise setzte sich Satellitenfernsehen in den USA, die über viel mehr Landfläche verfügen, äquatornäher liegen und eigentlich mehr davon profitierten sollten, sehr viel später durch.

Ende der Neunziger gab es dann den zweiten Vorstoß mit erdnahen Kommunikationssatelliten. Zwei Systeme wurden operationell: Iridium und Globalstar. Weitere waren damals geplant mit bis zu 360 Satelliten. Kunden sollten Personen sein, die überall auf der Welt erreichbar sein (s)wollten. Die Satelliten sollten Signale von übergroßen Handys empfangen, untereinander weitergeben, bis einer eine Bodenstation direkt anpeilen kann. Wegen der Erdnähe brauchte man dafür viele Satelliten. Dafür kann man anders als zu GEO-Satelliten auch ohne Parabolantenne einen Funkkontakt herstellen. Iridium heiß so, weil 77 Satelliten (ohne Reserve) für das System in 800 km Höhe vorgesehen waren. Iridium wurde nach wenigen Jahren fast insolvent und das US Militär betrieb eine Zeitlang die Satelliten inzwischen hat sich das Unternehmen konsolidiert. Der Grund für den Einbruch war dass sowohl die "Handys" wie auch Minutenpreise zu teuer waren. Daneben überschätzte man die Zahl der potentiellen Nutzer und unterschätzte die Konkurrenz vom Ausbau der Mobilfunknetze, die auf Land selbst in Entwicklungsländern schneller die Fläche abdeckten als man annahm. Zwar wird man im Dschungel sicher kein erdgebundenes Netz finden, aber rund um die Großstädte selbst in schlecht entwickelten Regionen. Das begrenzt natürlich auch die Nutzerzahl, da in den entlegenen Gegenden wenige Personen mit dem ausreichenden Kleingeld leben.

Globalstar, die nur 24 Satelliten im Orbit haben, gelang es besser im Geschäft zu bleiben. Bedingt durch die kleinere Satellitenanzahl war das System preiswerter im Betrieb, allerdings gab es auch mehr Lücken im Empfangsbereich. Globalstar rückte auch etwas von der Erde ab, sie umkreisen die Erde in 1400 km Höhe.

Nun gibt es neue Anbieter die sich aufmachen. Das eine ist Orbcomm. Orbcomms Ansatz ist ein anderer als der von Iridium und Globalstar. Man will keine Telefongespräche übermitteln, sondern Textnachrichten. Das reduziert zum einen die Datenrate, zum anderen kann der Satellit daher viel kleiner sein. Die Orbcomm Satelliten wogen in der ersten Generation nur 45 kg, ein zwanzigstel der Iridium und Globalstar Satelliten. Vor allem braucht man weniger Satelliten, denn Textnachrichten müssen nicht in Echtzeit übermittelt werden. Sie werden an Bord gespeichert und beim Überflug einer Bodenstation abgesetzt. Orbcomm will 90% aller Nachrichten in 6 Minuten weiterleiten - in 6 Minuten legt ein Satellit über 2500 km zurück. Genutzt wird das UIHF Band bei 127 MHz, das erlaubt einen Empfang von jeder Richtung. Begrenzt aber auch die Datenrate auf 2,4 bis 4,8 Kbit/s pro Sender.

Das zweite Unternehmen ist O3B. O3B hat schon 4 Satelliten mit einer Sojus vom CSG aus gestartet und 4 weitere folgen dieses Jahr. O3B will Telefongespräche und Internetverbindungen übermitteln. Die 700 kg schweren Satelliten gelangen in Viergruppen in einen 8000 km hohen Orbit, 16 Satelliten bilden das gesamte System. Das ist etwas ungewöhnlich, weil der Orbit deutlich höher liegt als der von Orbcomm bis Globalstar (500 bis 1400 km Höhe). Anders als Orbcomm haben die Satelliten 12 Ka Band Sender mit bündelnden Antennen, fähig mehrere Gebiete anzupeilen. Die Gesamtbandbreite beträgt 12 Gigabit/s. O3B will nicht die ganze Erde abdecken, die Satelliten gelangen in einen Orbit über den Äquator. Doch wofür braucht man sie? Nun den Grund sah ich heute bei einem Life-Interview in Heute plus: Bis eine Korrespondentin in Syrien auf die Frage reagierte vergingen über 2 Sekunden. Der Funkweg über einen GEO-Satelliten beträgt minimal 72.000 km. Bodenstationen, Verstärker, Konverter und was weis ich alles, addieren weitere Verzögerungen. Und wenn man Pech hat kann man auch mehrere Satelliten passieren. Für Internet oder Fernsehen kein Problem, jedoch nicht die beste Lösung für Telefongespräche. Die Satelliten sind über viermal näher an der Erde, dadurch soll die Verzögerung bei 179 ms für Sprache und 238 ms für Daten liegen. Über den GEO Orbit wären es 4,5 mal höhere Latenzzeiten. O3B will damit äquatornahe Gebiete die dünn besiedelt sind, und kein Mobilfunknetz oder Internet aufweisen, mit Daten und Telefondienstleistungen versorgen. Durch den 8000 km hohen Orbit braucht man zwar mehr als drei Satelliten die im GEO Orbit für ein Netz nötig sind, aber viel weniger als im erdnahen Orbit. Der Orbit ist auch so gewählt, dass jeder Satellit direkt eine Bodenstation anpeilen kann, selbst wenn er mitten über dem Pazifik ist, wo es eine tausende von Kilometern breite Wasserwüste vorhanden ist. Dass reduziert die Latenzzeit, denn jeder Satellit würde alleine durch die Signallaufzeit weitere 19 ms addieren.

Kleiner angenehmer Nebeneffekt: Durch den erdnäheren Orbit ist auch die Sendeleistung pro Fläche 20-mal höher, das bedeutet der Satellit kommt mit weniger Leistung aus (1,5 kW, andere GEO-Satelliten liegen heute schon bei 10 kW) oder bei gleicher Sendeleistung kann man die Daten mit kleineren Empfangsgeräten empfangen. 2014 wird das System operational werden. Es wird spannend zu sehen ob beide Konzepte aufgehen. Orbcomm hat schon 35 Vorläufersatelliten der ersten Generation gestartet. Die Investitionen sind überschaubar, auch weil SpaceX die Satelliten vor allem als Sekundärnutzlasten transportiert werden. Die Kosten eines Satelliten liegen bei 10 Millionen, da der erste schon ein Totalverlust war und die Versicherung diese Summe zahlte. Das O3B Netzwerk wird erheblich teurer werden. 1,2 Milliarden Dollar werden als Investitionssumme genannt. Beide Summen müssen erst mal wieder hereinkommen. Die Orbcomms sind zwar billiger, aber sie können auch viel weniger Daten übertragen.

In einigen Jahren sind wir schlauer.

2.9.2013: Der Wahlomat

Ich habe mir wie bei der letzten Bundestagswahl mal den Spaß gemacht, den Wahlomat zu befragen. und die Ergebnisse seht ihr hier. Von den Parteien die schon im Bundestag sitzen, passen meine Antworten am besten zu den Grünen. Welche Überraschung, die wähle ich seit 1990. Doch wenn man die anderen Parteien hinzunimmt, der Wahlomat lässt leider nur acht Stück auf einmal zu, sind die Familie noch leicht besser platziert, die Tierschutzpartei und die ÖdP gleichauf. Bei den etablierten hat sich eine Verschiebung gegeben. 2009 war die Reihenfolge noch Grünen - Piraten - Linke - SPD - FDP - REP - CDU - Büso. Die Büso ist meine Lieblingssplitterpartei wegen der humorigen Werbespots in den letzten Jahren. 2005 hatten sie mal einen Spot, der wurde von Kalkofe kariert, inklusive Schreibfehlern in den Folien und Übertreibungen "10 Millionen Arbeitslose, wenn ich Kanzlerin werde, werden wir zur D-Mark zurückkehren". Kürzlich habe ich ihn mit wieder angesehen, nur entdeckte ich da ein neues Detail - Hela Zepp-LaRouche hatte sogar recht! Sie prognostizierte 2005 das Platzen der Immobilienblase - 2008 löste das eine weltweite Rezession aus.

Es soll ja noch eine Alternative zum Wahlomat geben, die habe ich aber nicht gefunden. Aber taugt der Wahlomat etwas? Meiner Ansicht nach nicht. Die 38 Fragen decken vor allem Dinge ab, die in den letzten Monaten kontrovers durch die Nachrichten gingen, wie Betreuungsgeld für Eltern die ihre Kinder nicht in die Kita geben oder Mautgebühren für Autobahnen. Bei einigen Thesen kann ich prognostizieren, dass man sie nur im Parteiprogramm einer Partei findet, wie das bedingungslose Grundeinkommen.

Das ist der grundlegende Nachteil des Wahlomats. Die wo die Fragen zusammenstellten nahmen Positionen aus den Parteiprogrammen heraus, die relativ prominent sind. Herauskommt eine Sammlung von Fragen, von denen mir die Hälfte völlig schnurz ist, weil sie mich nicht tangieren wie über die Autobahnen. Was fehlt, sind Fragen zu den grundlegenden Problemen die wir haben:

Ich zweifele nicht daran, dass die Wissenschaftler von der Vereinigung das nicht wissen. Warum die Fragen nicht kommen, darüber kann man nur mutmaßen. Zum einen weil wahrscheinlich in jedem Parteiprogramm drin steht. Nur wie sie es umsetzen wollen, steht wohl nicht drin. so ist eine Frage danach relativ sinnlos. Was der Wahlomat auch nicht kann ist ein Parteiprogramm auf Sinnhaftigkeit und Durchführbarkeit zu prüfen. Wie bitte soll man ein Grundgehalt finanzieren, wie es eine Partei fordert, oder wie soll Bayern eine eigene Vertretung in der EU bekommen wie es eine andere fordert? So muss sich die Fragestellung auf offensichtliche Unterschiede, die Stellungnamen zu einigen prägnanten Punkten beschränken.

Doch hilft das bei der Wahl. Natürlich nicht. Aber ehrlich gesagt, ich glaube da hilft gar nichts. Die etablierten (im Bundestag vertretenen) Parteien ähneln sich in ihren Programmen immer mehr, oder sie vertreten nur noch Splittergruppen (FDP, Linke) und haben populistische Programmpunkte um mehr Stimmen zu bekommen. Die meisten kleinen Parteien haben eine Ausrichtung auf wenige Programmpunkte oder ein bestimmtes Klientel. Wenn man dazu gehört kann man sie wählen, doch dank 5-Prozent Hürde werden die meisten nicht ins Parlament kommen.

Selbst wenn - was wird davon dann umgesetzt? Was hat die aktuelle Regierung in den letzten 4 Jahren umgesetzt? Was wurde aus der "geistig-moralischen" Erneuerung von Kohl? Wenn jemand tatsächlich mal Reformen angeht die auch weh tun, dann verliert er bei uns die Macht, das hat man bei Schröder gesehen. Und daher macht die aktuelle Regierung nichts und ob eine neue Reformen wagt? Ich glaube eher nicht.

So werde ich auch in drei Wochen zur Wahl gehen und ich werde dasselbe wählen wie seit 1990, nur weniger aus Überzeugung, mehr aus Gewohnheit.

2.9.2013: Mini-Planetensonden - eine Alternative?

So, wie ihr bestimmt gemerkt habt gab es wenig neues in den letzten Tagen. Ich hatte die letzten zwei Wochen bei einem Kunden zu tun und die erste Woche konnte ich mit vorausgeschriebenen Blogs füllen, aber die zweite Woche eben nicht. Der nächste Termin ist in der Woche vom 7-11.10, und kurz darauf werde ich nach Nesselwang egehen. Also haben Gastautoren die Gelegenheit 1-2 wochen lang ganz alleine den Blog zu gestalten.

Ich bin über diesen Artikel gestoßen, der sich mit kleinen Raumsonden (unter 100 kg Masse beschäftigt). Das Konzept ist nicht neu. Ich hatte eine ähnliche Verwendung der ASAP-5 Plattform auch kleine Raumsonden zu transportieren. Die ASAP erlaubt in der verwendeten Version maximal 300 kg schwere Einzelnutzlasen, mit einem Gesamtgewicht von 1200 kg. Damit kann man mit chemischen Antrieb etwa 100 kg in eine Umlaufbahn um den Mond, Venus oder Mars bringen oder 150 kg auf eine Vorbeiflugmission entsenden. Der Artikel geht von noch kleineren Raumsonden aus, die nur etwa 50 bis 100 kg wiegen. Die Frage ist, wie sinnvoll solche Konzepte sind.

Nun zuerst mal etwas grundlegendes. wer Raumsonden mal nach der Masse ihrer Subsysteme aufgliedert stellt fest, dass die Experimente meist einen konstanten Anteil an der Trockenmasse haben. Etwa ein Sechstel mit Schwankungen je nach Einsatzzweck oder befördertem Treibstoff (meist wird das Antriebssystem mit zur Trockenmasse gerechnet). Am oberen Ende liegen reine Vorbeiflugsonden bei erdnahen Himmelkörpern, um unteren Raumsonden zu den äußeren Planeten. Sie wiegen wegen der RTG und den großen Antennen mehr, die beide das Gewicht erhöhen.

Die Basis dafür ist recht einfach. Jedes Instrument addiert Gewicht zur Sonde. Zum Gewicht der Sonde selbst kommt noch das für die Stromversorgung - Solarzellen oder RTG, Spannungskonverter, Akkus um Spitzenbedarf oder Zeiten ohne Stromversorgung abzupuffern, Kabel. Die Sender müssen stärker sein - sie müssen mehr Daten übertragen. Damit braucht man noch mehr Strom. Eventuell auch eine größere Antenne. Die Datenverarbeitung muss erweitert werden, das zieht weiteres Gewicht bei Sendern und Stromversorgung nach sich. Zuletzt erhöht das zusätzliche Gewicht die Strukturmasse, die ja alle Lasten tragen muss und das Thermalkontrollsystem, das ja die Wärme abführen muss. Und da fast jede Sonde ihre Lage mittels Treibstoff ändert, kommen dann noch Treibstoffe dazu und schwerere Tanks.

So wundert es nicht, dass man bei diesen kleinen Sonden nur von 10-15 kg wissenschaftlicher Nutzlast ausgeht, Das bedeutet natürlich Einschränkungen. Es gibt mehrere Möglichkeiten diesem Problem zu begegnen. Zum einen kann man nur Instrumente nehmen die nicht viel wiegen. Das sind z.B. Magnefeldsensoren, Detektoren für Strahlung etc. Nicht umsonst haben viele Nationen ihre ersten Satelliten mit solchen Instrumenten ausgerüstet und damit den Sprung in den Weltraum mit kleinen Satelliten gewagt.

Das zweite ist es zu verkleinern. Das ist bei vielen Instrumenten nur mit Einbußen möglich. Nehmen wir mal optische Instrumente die alle an einem Objektiv oder einem Teleskop hängen. Als Extrembeispiel gibt es die Kamera HiRISE. Sie macht aus 250 km Entfernung Aufnahmen mit 0,35 m Auflösung - wiegt aber auch 65 kg. Die Kamera AMIE an Bord von SMART-1 dagegen nur 2,1 kg. Sie macht Aufnahmen von 27 m Auflösung aus 300 km Entfernung. Der Unterschied im Gewicht vom Faktor 30 korrespondiert mit einem in der Auflösung um den Faktor 100. De Grund ist relativ einfach. Es gibt eine gewisse Basismasse, die sich durch die Sensoren, die Elektronik zum Auswerten und Verarbeiten der Daten ergibt (alle Instrumente sind autonom und brauchen den Bordcomputer nur zum Versenden der Daten bzw.,. zum Übermitteln des Messprogramms). Bei AMIE entfielen von den 2,1 kg Masse 1,65 kg auf dieses. Der Rest der Masse entfällt dann auf das Objektiv, das bei höherer Auflösung rasch schwerer wird. Bei AMIE wog es nur 0,45 kg. So hat man hier mehr Spielraum: man gewinnt man rasch an Auflösung ohne das das Gewicht stark ansteigt. Bei der Kamera LORRI an Bord von New Horizons ist schon ein Objektiv von 20 cm Durchmesser und 2630 mm Brennweite möglich (AMIE: 152 mm) das 5,6 kg von 8,8 kg Gewicht ausmacht. Es könnte aus 250 km Entfernung schon 1,2 m große Details abbilden. Also 4-fache Masse, 20-fach bessere Auflösung. Dann steigt die Auflösung nur noch langsam an, weil das Objektiv immer schwerer wird. Für die HiRISE Kamera hat man extra zur Gewichtsreduktion einen gefalteten Strahlengang umgesetzt. Andere Instrumente sind nur schwer verkleinerbar.

Der letzte Ansatz ist es Instrumente gemeinsam zu nutzen. So brauchen zahlreiche Instrumente einen optischen Teil, ein Teleskop oder ein Objektiv. Das gilt für Kameras wie Spektrometer. Teilchendetektoren verschiedenster Art sollten abgeschirmt werden, es bietet sich also an, sie in einem gemeinsamen Gehäuse mit einer gemeinsamen Abschirmung zu platzieren.

Am weitestgehenden ist dieser Ansatz bei optischen Instrumenten umgesetzt. An ein Teleskop, das bei größeren Instrumenten den größten Teil der Masse ausmacht. Dann kann man ein Objektiv mehrere Instrumente anschließen. Über einen Spiegel lenkt man dann das Licht an das jeweilige Instrument dann kann man die nur nacheinander betreiben, oder man positioniert die Sensoren nebeneinander und jeder nutzt einen Teil des Gesichtsfeld (meist nur bei größeren Instrumenten möglich) oder man hat einen halbdurchlässigen Spiegel, der für jedes Instrument die Hälfte des Lichts durchlässt, die andere zur Seite reflektiert wo ein ein weiteres Instrument sitzt. So kann man ein Spektrometer mit einer Kamera koppeln oder mehrere Spektrometer für unterschiedliche Spektralbereiche / Auflösungen oder mehrere Kameras mit unterschiedlichen Brennweiten (zusätzliche Linsen im Strahlengang die verkleinern oder vergrößern).

Klar ist so, dass man die Nutzlast eine kleinen Sonde optimieren kann. Entsprechende Ansätze gab es schon so, wurde bei Deep Space 1 erstmals ein optisches Kombiinstrument eingesetzt.  Entsprechende Ansätze zur Gewichtsreduktion  wäre auch bei größeren Raumsonden möglich, aber da es dort den Zwang zur Gewichtseinsparung nicht in diesem Maße gibt. Ein organisatorischer Punkt spricht auch dagegen: Im Normalfall hat jedes Instrument eine Arbeitsgruppe die es entwickelt und dann fertig zum Einbau an die NASA oder ESA übergibt. Bei Kombi-Instrumenten müssten sich diese zusammen tun oder es käme nur einer zum Zuge. Trotzdem wird man in 10 vbis 15 Kilogramm Nutzlast nicht 6-10 Experimente unterbringen können, sondern vielleicht 2-3. Damit ist schon eine Vorentscheidung getroffen. Derartige Sonden eignen sich für Einsatzzwecke, bei denen man nicht so viele Experimente braucht. Wenn man einen Asteroiden besucht, so wird man nicht mit einem Magnetfeld oder einem Strahlungsgürtel oder einer Atmosphäre rechnen. Entsprechend kann man Instrumente zu ihrer Untersuchung weglassen. Das zweite wäre eine Raumsonde zu einem Himmelskörper den man auch mit größeren Sonden erforschen könnte, aber bei dem vielleicht nur eine besondere Fragestellung geklärt werden muss, für die sich eine größere Sonde nicht lohnt, oder die Sonde dabei zerstört wird (Aufschlag: Deep Impact oder Atmosphärensonden (Venus, Jupiter, andere Riesenplaneten)

Es gibt auch historische Vorbilder. Da wäre zum einen die Pionier Serie. Die ersten neun Pioniers waren sehr kleine Sonden, die das interplanetare Medium mit wenigen Experimenten erforschten. Pioneer 10+11 waren größer und komplexer, jedoch verglichen mit ihren Nachfolgern Voyager, Galileo und Cassini einfach aufgebaut und preisgünstig. Das gilt auch die Venussonden Pionier Venus 1+2.

Das Discovery Programm hatte auch das Ziel die Kosten für Raumsonden zu senken, und einige Exemplare waren in der Tat sehr billig, aber auch mit nur wenigen Experimenten ausgestattet.

Die Frage ist, wo ist da der Haken? Der Haken wird im oberen Artikel schon angesprochen, nur nicht so präzise wie nötig. Es gibt in der Raumfahrt eine ziemliche Fixierung auf die Startkosten. Sie machen aber bei einer Raumsondenmission nur einen kleinen Teil der Gesamtkosten aus, Ausnahmen sind Raumsonden ins äußere Sonnensystem die auf extrem hohe Geschwindigkeiten beschleunigt werden müssen, und daher sehr große Trägerraketen brauchen. Die nächste Marsmission MAVEN wird 671 Millionen Dollar kosten. Davon entfallen 187 Millionen auf den Start. Bei einer als Sekundärnutzlast gestarteten Sonde entfallen diese. Doch die Konstruktion kostet auch Geld, hier würden standardisierte Sondenkörper viel Geld sparen, doch diese Möglichkeit hat man auch bei größeren Missionen und nutzt sie dort kaum. Die Experimente kosten auch Geld, je komplexer sie sind desto mehr. So fiel der Entschluss Marsexpress zu starten deswegen, weil in die Experimente für Mars 96 in Europa ein dreistelliger Millionenbetrag investiert wurde. Die eigentliche Raumsonde die aus Standardbauteilen bestand, war dagegen preiswert.

Zuletzt gibt es noch die Missionsüberwachung. Cassini als Großmission kostet derzeit 60 Millionen Dollar pro Jahr - in der erweiterten Mission, wo die Kosten schon auf die Hälfte reduziert wurden. Davon braucht man alleine 45 Millionen um die Raumsonde auf einem Minimallevel zu betreiben. Diese kosten hängen zum einen von der Größe des wissenschaftlichen Teams ab, aber auch von dem Betreuungsaufwand (muss man die Sonden mehrmals pro Tag kontaktieren oder kann sie lange autonom arbeiten?) und ob sie die großen DSN Antennen oder kleinere braucht. Bei New Horizons werden Missionskosten von 220,9 Millionen Dollar für den Betrieb angegeben. Das sind für die rund 10 Jahre nur 22,9 Millionen Dollar pro Jahr, aber die Raumsonde ist den größten Teil dieser Zeit in einem Hibernation Mode, sie macht wie Cassini nicht dauernd Vorbeiflüge an Saturnmoden und sie hat viel weniger Experimente die auch kleinere wissenschaftliche Teams ermöglichen. Wenn Raumsonden weitaus mehr autonom agieren könnten, dann wäre das eine Möglichkeit kosten zu sparen, doch derzeit gesteht man ihnen die Autonomie nicht in größerem Maße zu - zumindest nicht wenn es etwas zu tun gibt.

Der Artikel zeigt die Grenzen der Ersparnis: Eine Mission könnte 100 Millionen kosten, davon die Raumsonde nur 20 Millionen, also nur 20% der kosten. Typisch sind eher 30-40% Bei einer Mission mit vier Raumsonden zu Centaur Objekten, sind es auch nur 100 von 511 Millionen Dollar, und dies obwohl hier die sonst so teure Trägerrakete wegfällt (die bei New Horizons über 30% der Gesamtkosten ausmachte). Wenn man nun die Startkosten einfährt weil man sie mit dem ESPA Ring als Sekundärnutzlast startet, so spart dies nur viel Geld ein, wenn man die Sonde als eigene Mission starten würde.

Trotzdem, und hier gehe ich konform mit dem Artikel sind solche Missionen für bestimmte Zwecke gut geeignet. Ich hatte schon einige vorgeschlagen, heute kommt eine neue dazu: Die "Galileo-Ersatzmission". Galileo hatte ihren Namen von den nahen Vorbeiflügen an den Galileischen Monden. Die Datenmenge bei diesen Vorbeiflügen war durch den Ausfall der Sendantenne sehr gering, noch härter traf es das Plasmasubsystem und die Jupiterbeobachtungen. Eine Serie von Raumfahrzeugen, jede mit einem kombinierten Kamera(Spektrometerinstrument, einem Radiowelleninstrument und einem Detektor für energiereiche Teilchen sowie einem Magnetometer könnten Galileo ersetzen. Ziel ist es jede Sonde an einem der galileischen Monde vorbeizulenken, beim Vorbeiflug Aufnahmen zu machen und in den Monaten vorher Jupiter und seine Umgebung zu observieren. Vier Sonden, im 13 Monatsabstand gestartet würden so sowohl von der Beobachtungsdauer wie auch den Vorbeiflügen Galileo zu einem guten Teil ersetzen. Die Raumsonden würden nach dem Dump and Store Prinzip arbeiten. Also die Daten zwischenspeichern und später übertragen. Prinzipiell wäre auch ein Einschwenken in einen Orbit denkbar, doch dann werden auch die Limitationen sichtbar - nun fallen so viele Daten an, dass man eine leistungsfähige Sendeanlage braucht und das Dump and store Prinzip ist auch kaum umsetzbar. Jupiter ist dank moderner Ultraflex Solar Arrays ohne RTG erreichbar. Derartige Arrays von ATK haben Leistungsdichten von 175 W/m² und bis zu 5,5 m Durchmesser. Ein solches Array hätte bei Jupiter noch 664 Watt Leistung und würde 103 kg wiegen - nicht viel schlechter Daten als RTG. Kleinere Arrays für eine kleinere Sonde wiegend dann entsprechend weniger. Trotzdem wird die Konstruktion einer kleinen Sonde zu einer Herausforderung. Selbst wenn man 300 kg wie es bei einer Ariane 5 Sekundärnutzlast vorgesehen ist als Startmasse. Denn dann muss die Sonde ja noch die Erde verlassen und in der Sonnenumlaufbahn um 8,7 km/s beschleunigen. Selbst mit einem Ionenantrieb braucht sie dann eine Menge Treibstoff.

Ich denke ich werde das mal in einem ruhigen Moment etwas genauer durchdenken.

3.9.2013: Buchkritik T.A. Heppenheimer: Development of the Space Shuttle 1972 - 1981

Wer sich mit dem Space Shuttle beschäftigt kennt sicher T.A.Heppenheimers Buch über die Entstehung des Space Shuttles, das er im Auftrag der NASA geschrieben hat und das auch online einsehbar ist. Nun gibt es von ihm das Anschlusswerk. Während sich die NASA Ausgabe mit dem Zeitraum von 1969 bis 1972 beschäftigte, als man mehrmals das Konzept verfeinerte, abänderte und schließlich wegen des Sparzwanges zu der heutigen Konfiguration entschied, setzt das Buch History of the Space Shuttle: Development of the Space Shuttle, 1972-1981 nun 1972 an. Es gliedert sich in einzelne Kapitel die jeweils einzelne Aspekte genau beleuchten. Das erste beleuchtet die Entstehung des Programmes, den Kampf um das Budget und die Rangeleien wer was beim Shuttle macht, schließlich war es nun ein Gefährt (bei Apollo war das Manned Space Flight Center in Houston für die Raumfahrzeuge zuständig und das Marshall Space Center für die Saturn Trägerraketen). Das zweite beleuchtet die Welt und Situation als das Shuttle entstand. Der Wunsch der ESA mit dem Spacelab beteiligt zu sein, und trotzdem als eigenständiges Trägersystem Ariane zu entwickeln. Die Air Force die es nutzen wollte, aber nichts zur Finanzierung beitragen und wie die Aufträge für die Komponenten vergeben wurde.

Kapitel 3 befasst sich mit den unbemannten Flugtests und der Enterprise wie mit der Auseinandersetzung ob das Shuttle eigene Düsentriebwerke haben sollte. Es gibt dann zwei Kapitel über den Antrieb. Eines nur über die SSME, das andere über OMS, RCS und SRB und den Tank. Das sechste Kapitel beschäftigt sich mit dem Hitzeschutzschild, das siebte mit der Innenausrüstung, also alles was für die Besatzung wichtig ist. Ein weiteres Kapitel hat nur die Computer im Shuttle und am Boden sowie die Software zum Inhalt. Damit ist das technische System beschrieben. Kapitel 8 beschäftigt sich mit den Kostenproblemen und Diskussionen über Oberstufen, das vorletzte leitet über zum Jungfernflug: Es geht um die Startvorbereitungen, die Selektion von Astronauten und ihr Training und das letzte Kapitel ist dann eine kurze Einsatzgeschichte des Shuttles.

Kurzum: das Buch ist ziemlich komplett. Das einzige was ich an "ziemlich" einschränken muss ist das zu kurze (12 Seiten) letzte Kapitel. Ich hätte vom Titel des Buchs her erwartet, dass das Buch wenigstens den Jungfernflug genau beschreibt, die Probleme die auftraten, vielleicht was man gemacht hat und was gelernt. Wenn man es vollständig machen will, sollte man die ersten vier Flüge mit beschreiben, die als Qualifikationsflüge galten. Das erfolgte nicht. Einen, zwei Sätze pro Qualifikationsflug - das war's. Stattdessen geht das Buch weiter bis etwa zum Jahr 2000, es ist 2002 erschienen, also noch vor dem Verlust der Columbia 2003.

Das Buch ist kein technisches buch. Viele Schreiber die sich mit Technikgeschichte beschäftigen lassen diese komplett weg. Heppenheimer versucht den Spagat etwas zu erklären. Er geht nicht arg in die Tiefe und man wird auch technische Tabellen vergeblich suchen, aber es gibt einige Daten und man kann anhand der Beschreibung verstehen wie etwas funktioniert, auch wenn man keine Ahnung hat. Ich sehe das als positiv, denn wenn ich nur mich über die Technik informieren möchte dann schaue ich auf dem NASA nach Dokumenten, nur wird man dort schwerlich viel über die Entwicklungsgeschichte finden. Es liest sich sehr leicht, jedes Kapitel ist zudem in sich abgeschlossen, sodass man auch springen kann.

Was mir negativ auffällt, das ist dass er etwas zu optimistisch mit dem System umgeht. Wie bekannt wurde das Shuttle zu teuer, sowohl im Unterhalt wie auch bei der Entwicklung und es flog zu spät und zu wenig oft. Heppenheimer erwähnt die Fakten, aber findet Entschuldigungen - Nach seinem Inflationsindex hatte das Programm kaum Kostensteigerungen, das die Startpreise und Frequenz utopisch niedrig bzw. hoch waren, begründet er mit der fehlenden Erfahrung. Sicher, das ist ein Grund, aber dass man damit um den Faktor 3-4 falsch liegt, ist doch etwas happig und da hätte man die Ursachen auch ansprechen müssen.

Ich pflege Bücher auch nach einem Kriterium zu beurteilen - was kann ich für mich daraus ziehen, kann ich daraus nutzen um meine Aufsätze zu verbessern oder neue zu schreiben und da ist Heppenheimers Buch sicher das beste das ich in den letzten Jahren in den Händen hatte, denn es wird die Basis von drei Aufsätzen werden. Einer über den Shuttle Hitzeschutzschild ist schon erschienen, zwei weitere über die GPC und die SSME werden noch kommen.

Trotz des leichten Schwächelns mit dem Fehlen der Qualifikationsflüge und der etwas rosaroten Brille denke ich hat das Buch 5 von 5 Amazon Sternen verdient.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99