Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 68 : 21.6.2008-26.6.2008

Samstag: 21.6.2008: Planetenforschung braucht Planungssicherheit

Jedes bemannte Raumfahrtprogramm ist gut ein Vorhaben das sich über Jahrzehnte hinzieht. Nur wenige wurden vorzeitig eingestellt. Zumeist bleibt man selbst bei rapide gestiegenen Kosten am Ball. Die ISS wird über zwei bis drei Jahrzehnte aufgebaut und dann auf ihr geforscht. Von Bushs Vision for Space bis zur ersten Mondlandung vergehen 15 Jahre.

Wie anders ist es bei der Planetenforschung mit Raumsonden. Da wird ein Projekt durchgeführt und damit hat es sich. Das nächste Projekt, das auf diesem aufbaut oder dem nachfolgen soll muss sich in Ausschreibungen gegen andere Vorschläge durchsetzen, oder es werden Missionen gestrichen weil die Gelder nicht vorhanden sind.

Dabei war es einmal anders. Nehmen wir die Marsforschung in den sechziger und siebziger Jahren

Seit den achtziger Jahren ist eine Langzeitplanung nicht mehr zu erkennen. Zum einen weil es immer wieder Perioden gab in dem es die Mittel für die Planetenforschung allgemein kaum gab. Zum anderen weil politische Vorgaben nun die Programme bestimmten. Man erinnere sich nur an Dan Goldins Vorstellung der "kleinen, billigeren und schnelleren" Missionen.

Ich denke es wird wieder Zeit eine Strategie zu erarbeiten. eine Strategie über längere Zeit, wo man festlegt was man im Planetensystem erreichen will, sich Ziele setzt und danach Missionen auswählt. Eine Strategie sollte auch schrittweise die Forschung voranbringen und nicht die Ziele dauernd wechseln.

Dabei kann es durchaus Synergien geben. Instrumente die man für eine Mission entwickelt hat können in anderen Missionen nochmals zum Einsatz kommen. Dasselbe gilt für die Sondenkörper. Raumsonden im erdnahen Raum haben ähnliche Anforderungen an das Kommunikationssystem, Antriebsystem und die Stromversorgung. Für das äußere Sonnensystem muss man andere Sonden konstruieren, aber auch hier gibt es ähnliche Anforderungen. Das bedeutet das man einen Grundkörper für mehrere Missionen verwenden kann und so Kosten sparen kann. Ein bekanntes Beispiel sind Mars Express und Venus Express. Sie verwendeten den Sondengrundkörper von Rosetta, bei Mars Express gab es eine Reihe von Änderungen, da die Sonde viel kleiner ist. Bei Venus Express musste man nur noch nachbauen und für die niedrigere Sonnendistanz modifizieren, so dass die Sonde noch billiger ist.- Die Instrumente an Bord beider Raumsonden sind Nachbauten

Die NASA fordert schon seit langem eine gewisse Langzeitsicherheit, bestehend aus einer gewissen Anzahl von kleinen, mittleren und einer bis zwei großen Missionen pro Jahrzehnt. Das zu erreichen wäre schon ein Fortschritt, angesichts der großen Schwankungen des Etats für planetare Forschung in den letzten Jahrzehnten. Aber ich denke es geht noch besser: Wirklich die Forschung kontinuierlich aufrecht zu erhalten. Seit gut 10 Jahren gibt es eine Mars Euphorie. Die USA senden alle 2 Jahre mindestens eine Raumsonde hin. Die ESA sendet weitere zwei und Russland auch zwei. Zur Venus ist dagegen Venus Express die erste Sonde seit 1990. Effektiver für die Forschung und die verwendeten Finanzmittel wäre es eine Sonde zu entwickeln und dann zu verschiedenen Zielen zu schicken z.B. Venus, Mars, Asteroiden oder Jupiter, Uranus, Neptun.

Es werden mehr Missionen als heute sein, einfach weil sich heute die Forschung auf wenige Ziele konzentriert, doch nicht so viel mehr, denn Mars z.B. wird dann nicht mehr so oft Besuch erhalten. Wichtig wäre auch euch eine internationale Zusammenarbeit. Nicht nur bei den Sonden selbst, sondern auch bei der Mitnahme von Experimenten.

Aber das wird wohl ein frommer Wunschtraum bleiben, Zum Schluss heute noch ein Musiktipp. Ich habe vor zwei Wochen eine Dokumentation über die Les Humphries Singers gesehen. Von der Gruppe kannte ich vorher nur 3 Titel, und ich habe nach mehr gesucht und finde ihre Musik ganz gut. Es ist richtige gute Laune Musik, auch wenn die meisten stücke Gospel sind, also kirchliche Lieder. Mein Musiktipp ist auch eines dieser Lieder: "We are going down Jordan". Ich kannte es vorher nicht. Kenn Sie es? Einige MP3 gibt es auf dieser Website zum Runterladen.

Dienstag: 24.6.2008: Die Mondlandung aus der Portokasse finanziert

Das ist was die NASA machen möchte. Zur Erinnerung: Vor mehr als 4 Jahren erläuterte George W. Bush seine "Vision for space Exploration", Wie immer bei solchen Reden ist das Ziel recht unscharf. Es geht eigentlich nur zurück zum Mond zu kommen, eventuell dann noch weiter zum Mars, doch das ist schon unklar. Die NASA selbst hat nun die Aufgabe dieses Ziel in ein Programm zu gießen. Was herausgekommen ist, ist die Orion Kapsel und die Ares Rakete.

Über Orion gibt es noch wenig handfeste Fakten, obwohl die Kapsel als erstes fertiggestellt werden müsste, denn sie soll ab 2014 den Transport von Astronauten zur ISS erledigen. Bei der Trägerrakete Ares gab es eine Reihe von Wandlungen im Konzept.

NASA BudgetDenn die NASA hat ein Problem: Anders als bei Apollo gibt es zwar eine umrissene Aufgabe, aber nicht die dafür notwendige finanzielle Unterstützung der Politik. Bei Apollo stieg der NASA Etat innerhalb von wenigen Jahren sprunghaft an und die NASA bekam enorme Mittel zusätzlich für Apollo. Für Orion und Ares gibt es nur moderat mehr an Geldern. Der wesentliche Teil soll durch Einsparungen kommen. Das Programm wird daher erst ab 2010/11 richtig anziehen, wenn die Shuttles ausgemustert werden. Das sind 6-7 Jahren nach dem Start, einem Zeitpunkt bei dem man schon bei Apollo die ersten bemannten Starts plante. Die Grafik links zeigt die NASA Langezeitplanung. Berücksichtigt man die Inflationsrate (rote, gestrichelte Linie) so ist klar, das die Finanzierung vor allem durch Einsparungen in anderen Programmen erfolgt.

Das Raumschiff Orion wird neu konstruiert werden müssen, kann sich aber auf die Erfahrungen die man bei Apollo gemacht hat stützen. Im wesentlichen wird es daher eine größere Apollo Kapsel sein. Ich meine das nicht abwertend - Die Sojus Kapseln sind auch seit Jahrzehnten im Einsatz und zuverlässig, wenn auch nicht das eleganteste System.

Bei der Ares hat die NASA ein Problem. Sie muss folgende widersprechende Anforderungen unter einen Hut bringen:

Bei Apollo machte die Saturn V den größten Teil des Budgets aus. 40 % der gesamten Mittel entfielen auf sie. Die Entwicklung der Raumschiffe war vergleichsweise preiswert. Bei einem Apollo Start machte die Saturn V alleine 55 % der Missionskosten aus. Das zeigt warum die NASA nun ein Problem hat: Sie muss eine neue Rakete bauen, etwa 7 mal leistungsfähiger als das beste Modell, dass sie zur Verfügung hat. Das ganze darf aber nicht sehr viel kosten.

Die Saturn V war so teuer, weil man viel Geld in die Entwicklung steckte. Nicht nur in die konkrete Hardware, sondern auch in Grundlagenforschung. Forschung auf die folgende Entwicklungen aufbauen konnte. Das ist in etwa vergleichbar mit der Entwicklung der V-2. Die Sowjetunion versuchte diese Ausgaben bei ihrer N-1 einzusparen und scheiterte mit diesem Projekt. Bei Energija und Buran flossen dann die Mittel - Die Entwicklung war genauso teurer wie das US Space Shuttle - und es klappte.

So gesehen, wäre eine neu entwickelte Mondrakete heute erheblich preiswerter zu entwickeln, als die Saturn V. Doch wenn man die Entwicklung aus der Portokasse finanzieren muss, reicht das nicht. Die NASA hatte 2004 praktisch nur die Möglichkeit, aus vorhandenen Triebwerken auszuwählen, denn die Stufen selbst muss man in jedem Falle neu entwickeln, dafür sind sie einfach viel größer, als bestehende Designs. Das erste was die NASA tat war daher zu evaluieren was man hatte, und wie man es einsetzen konnte. Dabei untersuchte man neben der heutigen Lösung auch Schwerlastversionen der Atlas V und Delta IV. Sie erweisen sich nicht als günstiger als eine Neuentwicklung, jedoch nicht so sicher. Nun gibt es wenige Alternativen. Hier einmal ein paar unangenehme Tatsachen für die NASA:

Das ist nicht viel Auswahl. Es gäbe noch die Möglichkeit die RS-170 Triebwerke in Lizenz zu bauen, wie dies Lockheed mit den RS-180 tut. Verglichen mit dem F-1 hat es einen nochmals etwas größeren Schub und nutzt den Treibstoff besser aus. Warum das RD-170/171 nie in die Diskussion kam, weiß ich nicht. Die nationale Karte dürfte heute keine Rolle mehr spielen, selbst die USAF startet ja Satelliten mit der Atlas und ihrem russischen Triebwerksblock.

Das sind nun wenige Möglichkeiten. Gehen wir sie einmal durch:

Aus diesen Möglichkeiten muss man nun wählen. Die NASA hat recht bald sich auf folgendes festgelegt:

Zuerst einmal verwendet keines der Konzepte eine erste Stufe mit Kerosin/Sauerstoff. Lässt man ausländische Technologie zu, so hätte man durchaus die Zenit Erststufe anstatt einem SRB nehmen können. Nach Ansicht der NASA sind die Shuttle SRB so zuverlässig, dass man dadurch aber keine Sicherheit gewinnt. Der Fluchtturm bei der Ares I nützt bei dem Betrieb des SRB recht wenig, da ich kein Versagen eines Feststoffbooster kenne, bei dem man rechtzeitig dies vor einer Explosion bemerkte. Das war auch bei der Explosion der Challenger so, obwohl sich da die Flamme über mehrere Sekunden hinweg durch den Wasserstofftank geschnitten hat. Mit Sicherheit ist es eine preiswerte Lösung und einem mit besserem nationalen Prestige, als wenn man die Zenit Triebwerke einsetzt.

Da sind wir bei den Kosten, einem zentralen Punkt. Natürlich ist das SSME ein teures Triebwerk. eines kostet 50 Millionen Dollar bei Einzelbestellung. Ein RS-68 bei 50 % mehr Schub nur 20 Millionen. Der Ruck vom SSME zum RS-68 in der ersten Stufe der Ares V ist daher nachzuvollziehen. Anders sieht es bei der Oberstufe aus. Die Wiederaufnahme der Entwicklung des J-2S ist mit Sicherheit nach 40 Jahren Stillstand teurer als die Anpassung eines Triebwerks welches in der laufenden Produktion ist. Diese Entwicklungskosten muss man dann auch auf die Triebwerke umlegen und man braucht zwei J-2X um ein SSME zu ersetzen. Das lohnt sich dann nur bei vielen Flügen, doch so viele wird die Mondrakete wohl nicht sehen. Maximal 23 Ares I sind geplant und von der Ares V werden es wohl noch weniger werden, wahrscheinlich weniger als 10.

Bei Kostenabschätzungen sollte man zwei Dinge nicht vergessen: Das SSME ist auch so teuer, weil so wenige Triebwerke produziert werden. 60 Treibwerke in 30 Jahren sind etwa zwei pro Jahr. Zwei Flüge zum Mond und vier in den Erdorbit pro Jahr würden eine Produktion von 14 Stück pro Jahr erfordern. Dann wird einfach aufgrund der Serienfertigung billiger. Zum zweiten gibt es noch etwa 50 SSME der verschiedenen Generationen, die wie viele andere Triebwerke gut geschützt eingelagert sind. Das gilt übrigens auch für das F-1. Es gibt noch fünf Triebwerke in Langezeitlagerung.

Wie hätte ich wohl die Raketen entworfen? Es gibt da einige Reihe von Faktoren zu berücksichtigen: Kosten, "man rated" und auch Reduktion der Triebwerkszahlen.

Die große ARES V geht so in Ordnung, nur hätte ich ein SSME anstatt zwei J-2X in der zweiten Stufe eingesetzt.

Die kleines Ares I hätte ich ohne Feststoffbooster entworfen. Stattdessen hier ebenfalls in der ersten Stufe zwei RS-68 und in der Oberstufe ein einzelnes SSME. Das RS-68 ist nicht man rated, doch bei einem Triebwerk mit flüssigen Treibstoffen hat man genügend Zeit eine gravierende Fehlfunktion zu erkennen und dann automatisch die Kapsel abzutrennen. Zwei Triebwerke reichen für eine 500 t schwere Rakete, was bei einer ersten Stufe mit 400 t und einer zweiten mit 100 t Gewicht eine Nutzlast von etwa 28-30 t ergibt. (Mehr als bei der Ares I, da Wasserstoff in jeder Stufe (für Mario dieser Hinweis) deren Gewicht rapide senkt. Das SSME ist für die zweite Stufe etwas überdimensioniert. Das ist ein Manko. Bei Drosselung auf 60 % Schubniveau gibt es immer noch eine Peakbeschleunigung von 3.2 G. Doch dafür ein drittes Triebwerk (J-2S) einführen?

Flüssig angetriebene Booster machen nur bei der großen Rakete einen Sinn, doch hier ist ihr wesentlichster Aspekt die höhere Sicherheit. Man könnte die SRB durch die Booster der Energija oder Zenit Erststufen ersetzen, sofern nationales Ego dem nicht entgegensteht. 4 Zenit Erststufen mit einer 700 t schweren Zentralstufe und einer 200 t schweren Oberstufe ergeben eine Nutzlast von 140 t in die Erdumlaufbahn. Zwei RS-68 würden in der Zentralstufe dann ausreichen. Die Startmasse würde bei 2400 t liegen. Die Ares V liegt bei 3000 t mit 130 t Nutzlast. Für Mario: Eine Rakete mit Wasserstoff in allen 3 stufen (RS-68 in der ersten, SSME in den zwei Oberstufen) kommt auf 1660 t Startmasse bei 130 t Nutzlast. Die Masse der Stufe nimmt exponentiell mit dem Unterschied der durchschnittlichen spezifischen Impulse ab - und das gilt für alle Stufen).

Noch kann nicht jeder zum Mond fliegen, doch wer seinen Namen dorthin schicken will kann dies auf der LRO Website noch 3 Tage lang tun.

Mittwoch 25.6.2008: Sechzig Jahre Luftbrücke

Vor 60 Jahren schlossen die Sowjets alle Grenzübergänge zu West-Berlin. Was danach kam ist heute Geschichte: Die USA und Großbritannien zogen Flugzeuge aus aller Welt zusammen um Nahrungsmittel und kohle für 2 Millionen Einwohner in Berlin. Das ganze wird heute noch als eine große Wohltat der Alliierten gepriesen. Die Wahrheit ist profaner. In den USA gab es schon vorher die Devise die Ausbreitung des Kommunismus zu stoppen und man arbeitete daran Westdeutschland als Bollwerk gegen die sowjetischen Expansion aufzubauen. Hätte man Berlin preisgegeben, so hätte man Schwäche gezeigt und wahrscheinlich wäre dies nur der Auftakt zu weiteren Aggressionen gewesen. Dieselbe Doktrin führte ein Jahr später zum Eintritt der USA in den Korea Krieg.

Für Harry S. Truman, der damals gerade im Wahlkampf war, und dem man Führungsschwäche vorwarf, war dies die ideale Möglichkeit sich zu profilieren. Es gibt ja diesen berühmten Redemitschnitt von dem damaligen regierenden Bürgermeister Reuters. "Schaut auf diese Stadt und erkennt, dass ihr diese Stadt nicht preisgeben dürft, nicht preisgeben könnt" - und das trifft es. Es war allen klar, das Stalin jede Schwäche nur als Basis für weitergehende Forderungen ansehen würde. Wenn die Alliierten bereit wären Berlin preiszugeben, ein Gebiet über das sie nach dem Viermächtepakt die Kontrolle hatten - könnte man dann nicht als nächstes Westdeutschland einfordern?

Vergessen wird auch dass unsere Politiker nicht so bereit waren etwas für Berlin zu tun. Die Vertreter hatten zwar noch keine Macht, aber eine Meinung und schon vor der Sperrung von Berlin musste man der Stadt Nahrungsmittel schicken und finanziell helfen. Was gerne vergessen wird: Die heute dem Staat Milliarden einbringende Mineralölsteuer wurde damals eingeführt um die Berlin-Hilfe zu finanzieren. Angesichts dessen verstehe ich nicht warum heute Berlin pleite ist, Dies war ganz anders bei der Bevölkerung die voll hinter der Luftbrücke stand,

Gerne vergessen wird auch, dass die Luftbrücke nicht nur eine große Aufgabe für die Alliierten war, sondern auch die 2 Millionen Berliner 322 Tage lang diese durchgehalten haben. 322 Tage mit 2 h Strom am Tag, ohne Heizmaterial im Winter, mit 1700 kcal pro Tag bestehend aus getrockneten Nahrungsmitteln und Konserven. Die Sowjets offerierten den Westberlinern die Einlösung ihrer Lebensmittelkarten in Ostberlin, doch nur 5 % der Bevölkerung nahm dieses Angebot an. Nebenbei: Zigtausende arbeiteten am Boden um die Maschinen so schnell wie möglich auszuladen und in Rekordzeit den Flughafen Tegel aufzubauen,

Ich glaube diese Leistung ist höher zu bewerten als die logistische Herausforderung der Versorgung der Stadt. Diese kostete zwar viel Geld, doch dies konnte sich Amerika leisten. Es wurden von den Amerikanern keine Entbehrungen verlangt. Anders ist dies bei den Briten. Diese haben nicht nur ein Drittel der Versorgung geleistet, sie mussten selbst auf Lieferungen seitens der USA verzichten, die dann nach Berlin umgelenkt wurden. Als folge wurde das Getreide rationiert, das gab es während des ganzen zweiten Weltkriegs nicht.

322 Tage nach dem Beginn der Luftbrücke gaben die Sowjets nach geheimen Verhandlungen auf und am 12.5.1949 rollten wieder die Züge nach Berlin. 12 Jahre später zog man dann eine Mauer um die Stadt, wenn man sie schon nicht einnehmen konnte, so wollte man wenigstens die Flucht über die Stadt verhindern. Doch das ist eine andere Geschichte.

Donnerstag: 26.6.2008: GFlops und Supercomputer

Vor einigen Tagen habe ich in der ct' einen Artikel über die neueste TOP 500 und NVidias neues Schlachtschiff.GTX 280 gelesen. Die TOP 500 Liste ist die Liste mit den weltweit schnellsten Computern, üblicherweise eingesetzt für die Forschung im staatlichen oder geschäftlichen Umfeld (Ein Crash ist billiger simuliert als dafür ein Auto an die Wand zu fahren).Falls sie auch in dieser Liste erscheinen möchten: Das letzte System ist ein Blade Center HS21 mit 1488 Xeon Prozessoren mit 3 GHz und einer mittleren Leistung von 9 Teraflops.

Es gibt einen Trend und eine Neuerung in der derzeitigen Liste. Der Trend geht weg von den PC Prozessoren von Intel, AMD und IBM und hin zu den embedded Varianten des Power PC Prozessors, eigentlich gedacht als leistungsfähiger Controller in Fahrzeugen und anderen Steuerungen. Deren Leistung ist zwar deutlich kleiner als die eines Quad Cores und sie sind auch niedriger getaktet. doch der Stromverbrauch ist noch kleiner. Das spart nicht nur Stromkosten für den Computer sondern entlastet auch die Klimaanalage die heute ein gravierender Kostenfaktor geworden ist. Mehr Platz brauchen die Prozessoren nicht, denn ohne voluminöse Kühlkörper kann man sie viel dichter packen.

Die Neuerung ist die neue Nummer 1 der Liste, obwohl noch nicht einmal voll bestückt. Es ist der RoadRunner in Los Alamos, der Atombombenexplosionen simulieren soll. Mit 122240 Cell Prozessoren knackte er erstmals die Petaflop Grenze. Auch hier werkeln keine PC Prozessoren, sondern der Cell Prozessor, den IBM eigentlich für die Playstation 3 entwickelt wurde, aber heute als Rechenknecht angeboten wird. Die Version für Supercomputer unterscheidet sich vom Cell Prozessor in der Playstation 2, dass sie auch doppelte Genauigkeit schnell rechnen kann. das spielt für Spiele keine Rolle (einfache Genauigkeit hat Rundungsfehler an der 7-8 Dezimalstelle bei Bildschirminhalten die maximal 4 stellige Koordinaten haben ist dies weitaus besser als man braucht).

Der Cell Prozessor ist deswegen so schnell, weil er nur einen Power CPU Kern hat für die allgemeine Arbeit und das verteilen der Daten und 8 sehr schnellen, hochgradig parallelisierten Rechenwerken, die sehr schnell Berechnungen durchführen.  Noch etwas weiter geht NVIDA mit ihrem Grafikprozessor GTX 280, den man bald auf den neuen Grafikkarten finden wird. 240 Rechenwerke sind eigentlich für Grafikoperationen zuständig und erreichen dort eine enorme Leistung von 833 GFlops. Auch dieser Wert gilt für einfache Genauigkeit, doch selbst wenn er im doppelt genauen Modus auf ein Achtel zurückgeht ist dies absolut noch eine Menge. Anstatt 122000 Cell Prozessoren hätten auch 10000 dieser Grafikprozessoren ausgereicht um die Petaflop Marke zu knacken. Gegen PC Prozessoren sieht der Vergleich noch besser aus. Es gibt noch keine Pläne von NVidia den Prozessor losgelöst von einer Grafikkarte als reinen Rechenknecht anzubieten. Doch es gibt Software für den PC um die GPU für andere Zwecke zu nutzen. Eine Software transkodiert z.b. Video auf der GPU und ist 8-10 mal schneller als eine reine PC Lösung. Ich denke irgend jemand wird dann mal auf die Idee kommen einen Verbund von PC's mit High-end Grafikkarten als Supercomputer zu nutzen. Wenn man nicht so viel Geld hat wird man erfinderisch. Vor ein paar Jahren gelang das einmal mit der alten Playstation 2. Der praktische Nutzen des Clusters war aber durch den kleinen Speicher der Playstation begrenzt, doch es zeigte dass man ein Gerät recht gute zweckentfremden kann für eine Aufgabe, für die es gar nicht vorgesehen ist.

Warum schreibe ich dies? Nun bislang war es immer so, das Entwicklungen bei den Supercomputern zeitverzögert auch im PC Einzug hielten. Die Probleme bei hohen Anforderungen treten dort auf und die Lösungen werden dann vom PC Sektor übernommen: Caches, synchron arbeitender Speicher, Pipelines, Parallisierung und Multi-Cores. das alles wurde bei den Supercomputern entwickelt und findet sich heute in jedem PC. Daher ist ein Blick auf die Entwicklung in diesem Gebiet immer lohnend. Zuletzt noch eine kleine Tabelle, die mal einen etwas anderen Blick auf die Prozessoren wirft:

Prozessor Takt Leistung [GFlops] Leistung [Gflops/GHz] Stromverbrauch Gflop/Watt  
GTX 280 1296 MHz 116 89.5 236 Watt 0.38  
Powercell 8Xi 3200 MHz 12.8 4.0 92 Watt 0.14  
AMD Quadcore 2100 MHz 8.4 4.0 125 Watt 0.067  
Power PC 450 850 MHz 3.4 4.0 14 Watt (Kompletter Knoten) 0.24 (kompletter Knoten)  

Für den Power PC war kein Stromverbrauch des Prozessors alleine in Erfahrung zu bringen, sondern nur der des ganzen Systems wozu auch Speicher und Netzverbindungen und Festplatten gehören. Trotzdem zeigt dies die Effizienz dieses Prozessors, auch wenn sein Takt nicht sehr hoch ist.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99