Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 105 : 11.3.2009-17.3.2009

Mittwoch: 11.3.2009: Verschieben wird teuer

Martins Kommentare zu einigen der letzten Blogs brachten mich auf das heutige Thema. Er sprach an, dass man ja schon Geld in die Vinci Entwicklung gesteckt hat und sie heute dann sicher schneller und billiger wäre. Schneller vielleicht, weil etwas Vorarbeit schon angefallen ist. Billiger wohl nicht. Zuerst mal zum Thema schneller: In 3 Jahren haben zwei Testtriebwerke insgesamt 2200 Sekunden akkumuliert. Es sollten einmal 8 Triebwerke werden und sicherlich wird man nicht weniger Tests fahren als beim Vulcain. Bei diesem waren es 86000 Sekunden bis zum Erststart und es kamen danach noch weitere Tests dazu. Vor allem nachdem beim Vulcain 2 sich ja Probleme herausstellten die man in den Tests nicht fand dürfte es bei Vinci, das schwerer zu testen ist (Vakuum und Schwerelosigkeit sind schwer zu simulieren) nicht weniger sein.

Billiger wird es schon aus einem Grund nicht: Die rund 700 Millionen Euro für die Entwicklung waren im Wert von 2001, als die Entwicklung beschlossen wurde. Wenn man nun die Entwicklung neu aufnimmt dürfte alleine die Inflationsrate dafür sorgen das es teurer wird. Doch das ist nur ein Aspekt: Meiner Erfahrung nach werden Weltraumprojekte immer teuer wenn man sie verschiebt und zwar nicht ein bisschen, sondern massiv. Einige Beispiele:

Galileo sollte z.B. einmal 285 Millionen Dollar kosten. Als 1979 klar war, dass sich der Space Shuttle verspäten würde und auch die Centaur Entwicklung offen war, ging man schon aufgrund dieser Verzögerungen / konstruktiven Änderungen für Anpassungen an neue Trägersysteme von Mehrkosten von 120-225 Millionen Dollar, je nach Startoption aus. Im Jahre 1982 waren es dann schon 700 Millionen Dollar. Ursprünglich hätte die Raumsonde schon 1982 starten sollen. Als 1986 dann der Start wirklich anstand waren die Gesamtkosten auf 900 Millionen Dollar (700 Millionen für die Raumsonde und 200 Millionen für die Missionsdurchführung) gestiegen. Nach der Challenger Katastrophe stiegen die Kosten für die Raumsonde auf 882 Millionen und die der Mission auf 472 Millionen.

Die ISS ist ein zweites gutes Beispiel. Ihre Ursprünge gingen zurück bis in die achtziger Jahre, als sie noch Freedom hieß. Damals sollte sie für 8 Milliarden Dollar gebaut werden. Doch während man plante, machte die Challenger Katastrophe eine Revision des Konzeptes möglich. Es konnte nicht genügend Flüge geben, um die Station in der geplanten Form zu bauen und es waren zu viele Außenbordarbeiten notwendig. Bis Anfang der neunziger Jahre hatte die NASA alleine die ursprünglich geplanten 8 Milliarden Dollar nur für die Planung und das Design ausgeben. Als dann die Russen mit ins Boot kamen, nahm endlich auch die Hardware Gestalt an. Die Fertigstellung wurde 1997 für 2004 geplant und die Kosten mit 61 Milliarden Dollar. Inzwischen ist 2004 verstrichen, die Kosten der USA haben schon vor 2 Jahren die 100 Milliarden Grenze gebrochen und sie steigen weiter.

Warum ist dem so?

Nun es hat zwei Ursachen: Zum einen: Die Bauteile für die meisten Dinge in der Raumfahrt bekommt man nicht im Baumarkt nebenan. Es sind Spezialanfertigungen, und selbst wenn es handelsübliche Teile sind "Fachausdruck "off the shelf") dann muss gewährleistet sein, dass diese auch verfügbar sind wenn man sie braucht. Ein Satellit hat Entwicklungszeiten von einigen Jahren. Selbst das kann schon bei Elektronikkomponenten ein Problem sein. Versuchen sie einfach einmal einen neuen Athlon 3000 Prozessor, ein Standardbauteil von 2005 zu bekommen. Noch schwieriger ist es bei Trägerraketen oder dem Space Shuttle, also Systemen die über Jahrzehnte im Einsatz sind. Die NASA wie andere Raumfahrtagenturen lösen dies damit, dass sie Verträge mit allen Zulieferern, selbst für die kleinste Schraube abschließen. Sie bezahlen dafür auch noch nach Jahrzehnten Teile bestellen zu können, die der Hersteller sonst nicht mehr fertigen würde. Ganz einfach weil dies noch billiger ist als laufend alle Subsysteme neu qualifizieren zu müssen, weil Teile ausgetauscht wurden.

Die NASA hat so vorgerechnet, dass es über 2 Milliarden pro Jahr zusätzlich kosten würde, die Space Shuttles über 2010 noch aktiv zu halten - Das sind Fixkosten die einfach auflaufen ohne dass ein Start durchgeführt wird.

Mit dem verbunden ist natürlich auch ein Personalaufwand. Teile alleine nützen nichts wenn niemand sich mit Ihnen auskennt. Es wird Erfahrung benötigt: Wie man sie herstellt, einbaut, wartet, wie sie ins Gesamtsystem sich einfügen. Auch dafür zahlt die NASA. Sonst könnte ein Hersteller auf die Idee kommen einfach genügend Bauteile zu produzieren, einzulagern und dann die antike Produktionsstraße zu verschrotten und die Mitarbeiter zu entlassen. So beendete die NASA schon 2008 einige Kontrakte für den Space Shuttle. Schon im Oktober 2008 wurden beispielsweise 200 Arbeiter in Michoud entlassen, wo der externe Tank produziert wird. Es werden bis 2010 noch weitere 1300 der 1900 Arbeiter sein.

Daher: Die ESC-Bi Entwicklung wird wohl nicht billiger werden, eher teurer. Das heißt aber nun nicht, dass die ESC-B Entwicklung aufgeschoben werden sollte. Im Gegenteil. Wenn Europa durch das EGAS Programm 1 Milliarde Euro an Subventionen für Arianespace zahlt, dann sollte es doch das Eigeninteresse sein, dass dieser Produktionszuschuss nicht notwendig ist, indem die Nutzlast erhöht wird und die Kosten pro Kilogramm sinken. Sonst wird bald eine neue Finanzspritze fällig (EGAS läuft dieses Jahr aus). Noch unverständlicher ist es dann in meinen Augen zum einen die Ariane zu subventionieren und auf der anderen Seite dann auch noch den Umbau von ELA2 in ein Launchpad der Sojus mit zu finanzieren. Arianespace mag ein Interesse daran haben und die Russen auch - aber hat es Europa? Ich meine das eher umgekehrt ein Schuh draus wird. Wenn die Russen ihre Raketen von Kourou aus starten dürfen, sollten sie das CSG mit finanzieren, bei dem die ESA ja auch zuzahlt. Die eingesparten Millionen könnte man in die ESC-B Entwicklung stecken.

Noch ein kleiner Irrtum Martin: Für Planetensonden braucht man keine Wiederzündbarkeit. Das vereinfacht die Mission etwas, die Startfenster werden größer, aber alle Raumsonden die Europa bislang startete kamen ohne Wiederzündung aus. Auch Herschel/Planck kommen ohne aus. Das gleiche gilt für die meisten frühen russischen Starts und alle Starts von Ranger, Lunar Orbiter, Surveyor und Mariner bis zur letzten Sonde, (vorher war der NASA die Wiederzündung der Centaur zu riskant). Die ESC-B dürfte aber die Nutzlast erhöhen. Zum Mond z.B. um 4 t (von 6.8 auf 10.8 (nach diesen Angaben, ich finde sie etwas zu hoch und halte 9 t für realistischer).

Nun zu dem Thema an dem man heute morgen wohl nicht vorbei kommt: Der Amoklauf von Winnenden. Wie immer kommt danach die Frage: Hätte man das verhindern können? Ich denke die Waffengesetzte sind streng genug. Was will man da noch ändern? Wie will man verhindern, das Eltern bei denen das Verantwortungsbewusstsein nicht so ausgeprägt ist (oder das Vertrauen in die eigenen Kinder zu groß) ihnen Zugang zu Waffen erlauben? Sollen nun an jeder Schule Metalldetektoren aufgestellt werden? Und wie soll das praktisch gehen angesichts des Metalls in Schulranzen, Taschen, Füllern oder am Körper (bis hin zu Piercings - ich stelle mir mal die Szene vor wenn sich Schüler ausziehen müssen wegen eines Bauchnabelpiercings). Zumindest eines scheint bislang klar zu sein: Der Täter fällt nicht in die Stereotypen, welche die Politik so gerne bemüht: Ego-Shooter Spieler und Waffennarr. Ich glaube man wird nichts tun können gegen Leute die durchdrehen. Wenn man sie von Waffen fernhält, dann klauen sie vielleicht ein Auto und fahren damit mit Vollgas in der großen Pause auf den Schulhof. Es ist möglich aus vielen Dingen eine Waffe zu machen. Den einzigen konstruktiven Vorschlag denn ich habe wäre eine bessere psychologische Betreuung der Schüler - und zwar dauerhaft, damit es gar nicht zu solchen Verzweiflungstaten kommt. Dazu gehört aber eine Einstellungspolitik die auch dafür sorgt, dass die Schulen ausreichend mit Sozialarbeitern und Psychologen ausgestattet sind. Aber das kostet Geld, und Geld hat unser Staat nur für Materialinvestitionen übrig. Das kennt man ja vom Krisenpackt II, aber auch an unserer Hochschule ist es nicht anders. Ein Cluster für 250.000 Euro ist kein Problem, aber eine Dauerstelle für jemanden der ihn betreut? Unmöglich.

Freitag 13.3.2009: Ja, Computer werden immer langsamer

Gestern habe ich mal wieder nach meinem Namen gegoogelt. Ich mache das ab und an. Wobei ich mich auf die Links in Groups beschränke. Die anderen Links sind praktisch nicht mehr nachzuvollziehen, da es über 10.000 derer gibt. Neben einem glühenden Plichta Anhänger (leider bar jeder Grundkenntnisse von Thermodynamik) bin ich auch auf ein Statement gestoßen bei dem jemand mal so philosophiert wie ich es gerne tue.

Die Frage die er aufwirft ist natürlich nicht unberechtigt: Wenn es schon 1986 eine grafische Oberfläche gab, warum braucht man heute 1000 mal mehr Leistung dafür? Nun ich denke man muss es differenziert sehen. Das erste ist natürlich, dass die grafische Oberfläche des Amigas (oder Windows 3.1 um einen Vergleich aus dem PC Bereich zu nehmen) mit Vista zu vergleichen. Man täuscht sich gerne über dies hinweg. In der Erinnerung kann man nicht vergleichen. Das wird einem klar, wenn man eine Emulation ansieht. Dann fällt nie niedrige Auflösung auf, die grobe Grafik oder die  wenigen Farben. Einen ähnlichen Effekt kann man auch beobachten wenn man ein altes Spiel heute als Emulation ansieht. Dann fällt einem der Unterschied zu heute auf. Warum man es früher so toll fand? Weil man nichts besseres kannte. Doch das Bessere ist Feind des Guten.

Des weiteren gibt es natürlich auch Verbesserungen im Betriebssystem, die Performance kosten. Wie z.B. echtes Multitasking anstatt kooperativem Multitasking. Beim letzteren, noch bekannt von Windows 3.1 (und auch noch Basis für Windows 95-ME) muss ein Programm von sich aus Rechenzeit abgeben. Beim ersteren kontrolliert das Betriebssystem wie viel Rechenzeit Anwendungen bekommen. Trotzdem staune ich immer noch, dass Probleme mit der Internetverbindung heute immer noch den ganzen Computer lahmlegen können. So ausgereift ist es wohl noch nicht.

Doch das ist nur eine Seite. Worauf ich immer staune sind die mobilen Rechner. Also nicht Netbooks sondern Organizer oder PDA's. Die haben eine CPU der 200-500 MHz Klasse eingebaut. Dazu einige 100 Megabyte Flash Speicher und 64-128 MByte TAM, erweiterbar mit SD-Karten um ein vielfaches. Das ist die mehrfache Leistung eines Windows 3 oder 95 PCs, also PC Hardware von vor 10-15 Jahren. Trotzdem scheinen die Pocket Word / Excel Versionen Nicht dass ich viel von Word halte - Die Stabilität dieses Produktes ist für größere Texte nicht ausreichend. Aber eines kann man von ihm behaupten: Mit Word 2.0, also dem Stand von 1992, konnte man schon alles was Textverarbeitung können muss: Gliederungen erstellen, Formatvorlagen anwenden, Inhaltsverzeichnisse verwalten und Bilder einfügen. Word 2.0 lief gut auf einem 80386 Prozessor mit 33 MHz und 4 MByte RAM. Die Organizer haben heute die 10 fache Leistung, aber diese Pocket-Word Versionen sind nur wenig besser als das WordPad von Windows. Das gleiche gilt für das Excel, dem viele Funktionen fehlen. Nicht dass jemand auf die Idee kommt ein Buch auf einem Organizer zu schreiben, aber es ist wichtig Dokumente verlustfrei zwischen PC und Organizer austauschen zu können

Das ist ein typisches Beispiel wie Computer langsamer werden oder mehr Speicherplatz verbrauchen, einfach weil die Zeit weitergeht. Wir hören zwar immer das eine neue Version schneller sein soll als die Alte, doch das stimmt eigentlich fast nie. Zumindest nicht wenn man es nachprüft und auf gleicher Hardware vergleicht.

So nun komme ich noch zu einigen Kommentaren zum Blog.

Auf die Nachkaufmasche falle ich schon lange nicht mehr rein. Auf meinem Computer ist das einzige kommerzielle Programm RAD Studio 2007 für die Programmierung und der IGraphix Designer für Grafikbearbeitung. Die Windows Lizenz und Expression Web gab es als Mitarbeiter einer Hochschule umsonst, sonst wäre es wohl das zweite. Alles andere ist Freeware. Die Bücher schreibe ich z.B. mit OpenOffice. Was gekauft ist sind im wesentlichen Spiele, doch die sind meist gut abgehangen, da ich dafür ungern viel Geld ausgeben, mein PC alt ist und mein Lieblingsgenre (rundenbasierende Strategiespiele) heute weitgehend ausgestorben ist.

Ich gehöre nicht zu den Linux Freaks, aber ich denke der normale Softwarenutzer kommt auch ganz gut ohne kommerzielle Software von MS aus, außer vielleicht beim Betriebssystem. Zum Updaten? Wozu, wenn's läuft? Das kann auch bei freier Software nach hinten los gehen. Ich denke hier an den VLC, der mit der neuen Oberfläche die Fähigkeit verloren hat H264 Videos einfach in der Mitte oder einer beliebigen Position abzuspielen, ohne fast eine Minute zu brauchen bis das Bild wieder sauber ist.

Das das Moorsche Gesetz so am Ende ist habe ich schon mal besprochen. Bei Festplatten ist es schon recht deutlich. Die ersten 1 TByte Platten erschienen im zweiten Quartal 2007. In knapp 2 Jahren sind es nun 2 TByte geworden, das ist ein weitaus langsamer Anstieg als in den letzten Jahren. Bei den Taktfrequenzen (das meint Michael K.) ist schon seit 6 Jahren bei etwa 3 GHz Schluss. Das auf dem PC Bereich die meisten Dinge nicht paralellisierbar sind und mehr als 2 Core wenig mehr Performance bringen war an dieser Stelle schon Thema.

Ich selbst bin seit 2 Jahrzehnten "Mittelklasse Käufer", das heißt ich kaufe meistens PCs im preislichen und leistungsmäßigen Mittelfeld. Ich denke da bekommt man das Optimum für das Geld.

Zur ESC-B: Mit der Doppelstartfähigkeit bei planetaren Bahnen ist es nicht so ganz einfach. Ich hatte das auch mal als Vorschlag, aber wegen dem Buch habe ich mich mehr mit der Oberstufe beschäftigen müssen. Bei einem Doppelstart muss der obere Satellit (der als erstes ausgesetzt wird) in den GTO Orbit gelangen, sonst würden ja beide Missionen auf Fluchtkurs gehen. Damit ist der erste Orbit ein GTO Orbit. Das Aussetzen des Satelliten dauert etwas und in der Zeit gewinnt die Stufe höhe, so dass die erneute Zündung energetisch ungünstig wird und eventuell die Geometrie der Bahn auch ungünstig wird. Die Lösung wäre es die ESC-B mit zweiter Nutzlast einen Orbit durchfliegen zu lassen und dann erneut zu zünden. Derzeit ist aber die Stufe nur für maximal 5 Stunden qualifiziert. Ein GTO Orbit hat aber eine Umlaufszeit von 10 Stunden. Die einfachste Lösung wäre es ein Überdruckventil einzubauen und mit etwas Treibstoffverdampfen zu leben.

Ach ja noch ein Musiktipp: Aus Cloud No 9, weil es gerade heute auf meinem MP3 Player lief und 600 Stufen zum Geschäft so viel leichter fielen....

Montag 16.3.2009: Raketentreibstoffe erklärt für Dummies

Bei dem Thread im Forum über den Plichta Anhänger war ich doch erstaunt wie fanatisch Leute sein können und dabei doch bar jeder Fachkenntnis. Vielleicht sollte ich auch mal eine total abstruse Theorie aufstellen und sehen ob das jemand glaubt wie z.B.. "Billige Raketen die mit Brennspiritus und WC Reiniger fliegen" (Würde übrigens funktionieren, man bräuchte nur jede Menge Stufen und hätte eine sehr geringe Nutzlast).

Für alle die es nicht wissen: Peter Plichta ist jemand der verschiedene Theorien publiziert und medial sehr auffällig ist. Nach seinen eigenen Aussagen hat er zwei Nobelpreise verdient und gehört zu den Menschen die nur einmal pro Jahrhundert geboren werden. Eines was er propagiert, ist der Übergang in das Siliziumzeitalter. Er propagiert Silane als Treibstoff sowohl für Fahrzeuge wie auch Raketen. Man könnte dazu sehr viel schreiben oder auch sehr wenig, z.B. dass die Herstellung von Silanen extrem teuer ist und ein Liter über 100 Euro kostet und das die meisten Überlegungen zur Nutzung wegen der hohen Kosten ad akta legt.

Doch ich will die Gelegenheit mal nutzen, zu erklären warum es keine "Wundertreibstoffe" gibt und wir die Suche danach aufgeben können. Zumindest bei Raketentreibstoffen. Ich will es mal erklären, ohne Formeln und Zahlen. Nur mit Logik.

Also wir stellen uns mal ganz dumm und fragen: Wie funktioniert den da so ein Raketenantrieb? Also im Prinzip ganz einfach. Wir mischen zwei Substanzen, bringen diese zur Reaktion, dabei entsteht ein heißes Gas und dieses Gas beschleunigen wir durch eine Düse. Was einen guten von einem schlechten Treibstoff unterscheidet, ist die Geschwindigkeit mit der das Gas die Düse verlässt. Je höher diese Geschwindigkeit ist, desto weniger Treibstoff benötigen wi,r um einen Orbit zu erreichen, da die Kraft welche die Rakete antreibt proportional zu der Geschwindigkeit ist, mit der die Gase die Düse verlassen.

Soweit verstanden? Nun wie können wir die Geschwindigkeit des Gases bestimmen? Sobald es gebildet ist, wechseln wir von der Chemie zur Physik. Dann gelten die Grundsätze der Thermodynamik Die Geschwindigkeit des Gases nach Verlassen der Düse hängt mit der Geschwindigkeit der Moleküle in der Brennkammer zusammen. Nach der Zustandsgleichung von Gases ist die Geschwindigkeit eines Gasmoleküls von der Temperatur und Atommasse der Moleküle abhängig. Dazu ein Vergleich: Nehmen wir an sie sollen Bälle kicken. Die Geschwindigkeit eines Balles hängt ab davon wie fest sie zutreten (Temperatur) und wie schwer der Ball ist (ein Fußball wird schneller sein, als ein Basketball, bei gleicher Kraft).

Die Temperatur hängt wiederum mit der Reaktionsenergie zusammen. Kennt man die Reaktionsenergie einer chemischen Reaktion, so kann man die Geschwindigkeit der Gasmoleküle berechnen. Nun wie kann man die Reaktionsenergie abschätzen, ohne in Tabellen zu schauen? Schon sind wir wieder bei der Chemie: Im Periodensystem nimmt die Reaktionsenergie zwischen zwei Elementen zu, je weiter diese auseinander liegen. Wenn die Gruppe der Edelgase ausgeblendet, (da sie nicht mit den meisten Substanzen reagieren) so erhält man sehr hohe Reaktionsenergien wenn man ein Element der 7.ten Hauptgruppe (F,Chl,Br,I...) mit denen der ersten Hauptgruppe (H,Li,Na,K,Rb,Cs) umsetzt. Noch etwas höhere Reaktionsenergien erhält man wenn die Distanz diagonal nimmt, also z.B. Fluor mit Cäsium umsetzt.

Die Reaktionsenergie wird aber pro Bindung frei. Nun kommt ein zweiter Umstand zum Tragen. Es reagieren immer nur die Elektronen in der äußersten Schale. Bei Lithium also genauso wie bei Cäsium nur eine Elektron. Allerdings hat Cäsium ein viel höheres Atomgewicht. Bei der Reaktion wird die Reaktionsenergie also auf eine größere Masse verteilt und die Energie pro Gramm sinkt ab. Daher ist es am sinnvollsten die leichtesten Elemente umzusetzen. Dafür gibt es auch noch einen zweiten Grund: Wie schon erwähnt ist die Geschwindigkeit des Gases höher, wenn seine Atommasse gering ist. Das führt uns fast zwanglos zu der optimalen Kombination von Fluor (dem am weitesten rechts und oben stehenden Oxidator) und Wasserstoff (dem am weitesten Links oben stehenden und leichtesten Element). Fast genauso gut, weil das "Abgas" Wasser eine etwas niedrigere Atommasse als Fluorwasserstoff hat, ist die Verbrennung von Wasserstoff mit Sauerstoff.

Eine Reihe von Elementen wäre interessant wie Lithium und Beryllium. Sie haben aber einen Nachteil: Wie die von Plichta vorgeschlagene Silane, entstehen bei der Verbrennung Produkte die bei hohen Temperaturen auskondensieren. Die gesamte Betrachtung gilt nur für Gase. Sobald ein Stoff zum Feststoff wird, fängt er an sich zusammenzuballen zu Staubkörnern und scheidet aus dem Reaktionsgleichgewicht aus. Es gibt nun einen Trick: Man mischt dem Verbrennungsträger Wasserstoff zu. Der Wasserstoff nimmt die Wärme des Kondensats auf und wird erhitzt. Da seine Atommasse 9 mal geringer als die von Wasser ist, resultiert trotzdem ein etwas höhere Geschwindigkeit der Gase.

Wie passen nun Silane in dieses System? Nun der Energiegehalt pro Bindung ist etwas größer als bei Kohlenstoff, der im Periodensystem genau eine Position höher steht. Aber die Atommasse von Silizium ist auch mehr als doppelt so hoch wie beim Kohlenstoff, so dass in der Summe der Energiegehalt pro Gramm geringer ist. Bei dem Einsatz als Raketentreibstoff ist weiterhin wichtig, dass Siliziumoxid (Quarz) und Siliziumnitrid bei sehr hohen Temperaturen aus dem Gleichgewicht als Kondensate ausscheiden.

Warum übrigens die Plichta Anhänger dauernd auf der Verbrennung mit Stickstoff herumreiten ist ein weiteres Rätsel. Zum einen liefert die Verbrennung mit Stickstoff weniger Energie als mit dem Sauerstoff, zum zweiten bezieht eine Rakete ja nicht den Verbrennungsträger aus der Luft sondern aus einem Tank.

Zuletzt noch ein paar Anstöße, die sich jemand zu Herzen nehmen sollte, der Plichta so unkritisch glaubt, diesmal auf den Ersatz von Benzin gemünzt

Ach ja noch der Spruch des heutigen Tages, von Maria aus "Germanys next Topmodell: "Ich glaube das wünscht sich jedes Mädchen in ganz Deutschland in eine Traumvilla zu kommen mit Pool mit Klamotten und Taschen und Sonnenbrillen auf dem Bett, die man behalten darf, es ist wirklich ein Märchen". Jau offensichtlich geht es unserer Jugend noch recht gut, trotz Krise. Ich träume wohl mehr von einem sicheren Arbeitsplatz und stabilen Preisen.

Dienstag 17.3.2008: Der Verlust von Wissen

Heute bekam ich eine Mail, in der ich auf einen Artikel hingewiesen wurde, in dem darauf hingewiesen wurde, das die Wiederaufbearbeitung von Sprengköpfen für die Trident U-Boot Raketen gestoppt wurde, weil man nicht mehr wusste, wie das Aerogel hergestellt wird. Das brachte mich auf die Idee für heute: Wie wertvoll ist Wissen, wie gehen wir damit um und wie gewährleisten wir, dass wir es auch nach Jahrzehnten darauf zugreifen können, wenn etwas aus der Produktion gerät?

Ich habe mich mal diesem Thema angenommen und es mal auf die Raumfahrt übertragen. Die meisten Projekte bauen ja auf anderen Projekten auf, es entwickeln sich Technologien weiter oder werden obsolet. Neue Werkstoffe werden eingeführt und machen alte überflüssig. Doch es gibt immer wieder den Fall, dass eine Entwicklung abgeschlossen wird, es dann eine lange Pause gibt und dann diese Technologie wieder gebraucht wird. spontan fallen mir hier zwei Dinge ein:

Nach der Entwicklung des  F-1 wurden die Produktionsstraßen abgebaut und die Mitarbeiter entlassen. Die Dokumentation wie Blaupausen oder Pläne wurden eingelagert.

Nach Viking gab es eine 20 Jahres Pause bis wieder ein Marslander anstand. Obwohl es mit Viking Erfahrungen gab, rissen bei den MER Fallschirmen diese bei der Erprobung auf der Erde und die Aeroshell vom MSIL ist eines der Systeme, welches wegen seiner viel größeren Abmessungen als bei den bisherigen Rovern recht teuer und komplex in der Entwicklung wurde. Dabei ist er nicht größer als der von Viking.

In einem Fall gelang es also nicht Erkenntnisse von vor 20 Jahren auf aktuelle Projekte zu übertragen. Würde dies beim F-1 Triebwerk gelingen? Ich habe meine Zweifel. Das erste: warum sollte man es nachbauen? Sicher es ist nicht der aktuelle Stand der Technik. Ein neues Triebwerk nach dem Stand der Technik wäre vielleicht um 20 % leichter und würde einen um 10 % höheren spezifischen Impuls erreichen. Doch wäre dieser Gewinn die Kosten für eine Neuentwicklung (insbesondere für ein Erststufentreibwerk mit geringem Einfluss auf die Nutzlast) wert?

Die Frage ist nun: Könnte man das F-1 heute noch mal bauen und so viel Geld sparen? Ich habe meine Zweifel. Nicht weil Materialien sich ändern und Technologien, wie das Verschweißen der Kühlröhren der Brennkammer. Es ist, dass die praktische Erfahrung mit dem Triebwerk und der Fertigung fehlen. Bis diese wieder gewonnen wird, vergeht Zeit, was da ist, ist wie das Triebwerk aufgebaut wird, aber nicht wie es gebaut wird.

Gibt es eine Lösung? Ich habe gehört, dass bei der Rosetta Sonde wegen der langen Missionszeit von 14 Jahren Interviews mit den am Projekt Beteiligten geführt wurden. Sie sollten damit das weitergehen, was sie vielleicht nicht in Verfahrensvorschriften und Dokumenten gepackt haben, aber im Kopf haben. Vielleicht gibt es kein Geheimrezept das Wissen zu erhalten, aber es ist sicher kein dummer Ansatz. Aber dieser Ansatz ist neu. In den sechziger und siebziger Jahre verstand man unter Dokumentation: Blaupausen, Teilelisten, Verfahrensvorschriften.

Ein zweiter Punkt, der angesprochen wird, ist aber vermeidbar: Es ist das Out-Sourcen. Es ist ja in der Wirtschaft überall en vogue. Aber ich will mich wieder mal auf die Raumfahrt beschränken. Mir fallen hier zwei Dinge ein: Die Saturn V auf der einen Seite und das Apollo Raumschiff auf der anderen Seite und das Space Shuttle.

Die Saturn V war ein großer Sprung für Amerika. Sie war 20 mal größer als jede Rakete welche sie vorher gebaut haben. Trotzdem wurde sie im Zeitplan entwickelt und war (mit Ausnahme von POPG Effekten beim zweiten Testflug) ein Träger ohne jede Probleme beim Flug. Eine echte Ausnahme in den sechziger Jahren (und wie Ariane 5,H-2 und Falcon zeigen - auch heute nicht selbstverständlich). Die Saturn V wurde von Wernher von Braun entwickelt und gebaut in Huntsville. Er wehrte sich mit Händen und Füßen, die Arbeit aus einem NASA Zentrum nach außen zu geben, musste aber nachgeben. Zumindest blieb die Entwicklung in Huntsville, während die Serienfertigung dann in der Industrie erfolgte.

Bei der Apollo Kapsel vergab die NASA dagegen wie sonst üblich den Auftrag an die Industrie. Hier zählte mehr Termintreue und Kostenreduktion als übergeordnete Faktoren wie Sicherheit und Sorgfalt. Es kam zum Brand bei Apollo 1. Das die Industrie nicht die Sicherheit als höchste Priorität hatte, ist nur eine von mehreren Ursachen für den Verlust der Besatzung. (Eine andere war der Konstruktionsmangel bei der Tür). Aber es zeigt, dass die Industrie vielleicht andere Ziele als eine NASA Behörde hat.

Nach Apollo wurde das Space Shuttle nach denselben Kriterien entwickelt: Es wurden Industrieaufträge vergeben wer am wenigsten bot bekam en Auftrag. So erhielt Thiokol den Auftrag für die Booster, obwohl die einzige Firma, welche große Booster fertigte, damals Alliant war. Das war nicht ursächlich für die Challenger Katastrophe, bei der Ingenieure gegen den Start votierten. Aber vielleicht hätten Alliant Techniker mit mehr Erfahrung sich nicht vom Management kleinkriegen lassen.

Später wurde auch noch die gesamte Wartung an die Industrie outgesourct, so dass heute die NASA das Shuttle Programm mehr verwaltet als dass sie es durchführt. Das ist in meinen Augen ein großer Fehler. Natürlich muss die Industrie beteiligt sein. Eine Regierungsbehörde kann nicht alles alleine tun. Aber man kann die Entwicklung gemeinsam durchführen und dann die Fertigung von der Industrie durchführen lassen. Aber das Wissen sollte bei dem Staat oder der Behörde bleiben.

Ist es in Europa besser? Nein es ist noch schlimmer. Zum einen gibt es bei uns durch den multinationalen Konzern EADS/Astrium praktisch keine Konkurrenz für Aufträge mehr. Das ist sehr schlecht. Das ist ein Monopol. Es ist jedoch noch schlimmer: Bei der Trägerraketenentwicklung achtet Frankreich darauf, dass alle technologisch wichtigen Entwicklungen, wie z.B. in der Reihe HM-7 → Vulcain → Vinci in Frankreich erfolgten. Gerne dürfen andere Nationen die Tanks oder Strukturteile produzieren. Das funktioniert deswegen so gut, weil die völlig unfähige Bundesregierung (und ich beziehe dies in diesem Aspekt auf alle Regierungen der letzten 30 Jahre) sich das gefallen lässt. Anstatt darauf zu pochen, dass technologisch wichtige Teile in Deutschland entwickelt werden, lässt man die Franzosen gewähren. Warum? Es könnte ja sein, dass man dann auch mehr für die Entwicklung zahlen müsste.

So nun noch ein paar Neuigkeiten. Ich brauche Inspiration. Ich schreibe gerade an einem positiven Gegenstück zum "Schlamperei in der Raumfahrt" Aufsatz. Er behandelt Missionen, die fast gescheitet wären, und dann noch erfolgreich durchgeführt wurden. Ich habe schon zwei Missionen angeführt: Voyager 2 und Skylab. Hat jemand noch Ideen für solche Missionen? Das zweite ist der Fortschritt am Buch. Ich habe mich mittlerweile entschlossen (wie auch von der Mehrheit bei der Umfrage gewünscht) es zu spalten. Es gibt nur wenige Überschneidungen zwischen den einzelnen Kapiteln, so dass es recht einfach war. Es erlaubt mir aber ein Buch abzuschließen und die Arbeit für das Korrekturlesen und Zusammenfassen reduziert sich. Es wird also zwei Bücher geben. Eines über die Diamant bis Ariane 4 (derzeit 224 Seiten, allerdings ohne Abbildungen) und über Ariane 5 und Vega (129 Seiten). Ich hoffe bis Ende dieser Woche das Sammeln von Daten über die Ariane 1-3 abzuschließen und in der nächsten Woche dann über die Ariane 4. Danach kann ich daran gehen das ganze ins Reine zu schreiben und Korrektur zu lesen. Danach schlägt die Stunde der Korrekturleser und ich kann mich an die Abbildungen machen, die immer noch ein Problem darstellen. Zumindest Diagramme und Schnittzeichnungen in Druckqualität denen man nicht ansieht, dass sie eingescannt sind. Die halte ich für wichtig, weniger Startfotos. Wer die bisherigen Bücher von mir kennt weiss ja, dass ich nicht so viele Abbildungen verwende. Für mich sind sie nicht so wichtig, zumal ich aus Kostengründen auf Farbe verzichte - nun ja nicht ganz. Diesmal wird pro Rakete ein schönes Startfoto in Farbe enthalten sein.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99