Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 237: 14.7.2011 - 18.7.2011

Donnerstag den 14.7.2011: Raketen die es gäben könnte: Die Falcon Centaur und Taurus Centaur

In meiner zweiten Serie über Raketen die technisch möglich sind, die es aber aus verschiedenen Gründen nicht gibt, mache ich heute einen Sprung von der Saturn IB zur heutigen Generation von Trägerraketen. Die Falcon 9 und Taurus II werden vor allem Fracht zur ISS bringen, jeweils mit von den Firmen entwickelten Raumschiffen. Dafür sind sie optimiert. Seitens OSC gibt es keinen anderen Kontrakt außer diesen Versorgungsflügen. Bei SpaceX stehen außer den Versorgungsflügen noch einige Missionen in andere niedrige Erdorbits an, aber nur 4 Flüge in den GTO Orbit. So verwundert es nicht, dass beide Träger auf den niedrigen Erdorbit optimiert sind.

Bei höherem Geschwindigkeitsbedarf, wie für GTO-Bahnen oder gar Fluchtgeschwindigkeit, nimmt bei nur zwei Stufen die Nutzlast stark ab. SpaceX hat gerade die GTO Nutzlast reduziert (oder genauer gesagt, eine um 50% größere Rakete hat dieselbe Nutzlast wie vorher eine 334 t schwere Rakete) und OSC will für Fluchtgeschwindigkeiten eine dritte Stufe einsetzen. Es gibt weltweit (außer der Falcon 9) keine zweistufige Trägerrakete, ohne mindestens eine kryogene Stufe, welche GTO Transporte durchführt, weil bei mittelenergetischen Treibstoffen bei nur zwei Stufen extrem hohe Voll/Leermasseverhältnisse vorliegen müssen.

Daher wäre es für höhere Energien sinnvoll, eine weitere kryogene Stufe einzusetzen. Innerhalb des US-Arsenals bleiben da nur zwei Stufen übrig: Die Delta 4 Zweistufe (4-m Version) und die Centaur V. Beide verwenden ein Pratt & Whitney RL-10 Triebwerk, aber unterschiedliche Subversionen und sind auch anders aufgebaut (die Centaur aus Edelstahl mit druckstabilisierten Tanks, die Delta IV Zweistufe aus Aluminium mit herkömmlichen Tanks). Beide Stufen wurden schon auf unterschiedlichen Trägern eingesetzt. Die Delta IV Zweistufe auf der Delta 3 und Delta 4, die Centaur auf Atlas in verschiedenen Versionen, Titan und Space Shuttle. Der Durchmesser der Centaur beträgt 3,05 m, der der Zweitstufe der Delta IV 4 m. Letztere hat damit einen größeren Durchmesser als die Erststufen der beiden Raketen (3,66 und 3,90 m). Das sieht dann etwas komisch aus, aber so was gibt es schon, z.B. bei der Delta 3.

Es gibt zwei Möglichkeiten: Die bisherige Zweitstufe zu ersetzen und der Einsatz als dritte Stufe. Bei der Taurus kommt wegen der kleinen Zweitstufe nur der erste Weg in Frage. Von der Taurus II liegen seitens OSC, ATK und NASA genügend Daten für eine Charakterisierung vor. Anders sieht es bei SpaceX aus, bei der ich die Daten anhand der Ergebnisse der letzten beiden Flüge und des Users-Guide rekonstruiert habe. Es gibt aber zu wenig für die irgendwann einmal kommenden Block II und Block III Designs.

Wie man sieht, ist der Nutzen offensichtlich: Die Nutzlast liegt erheblich höher als ohne die Stufe (nach meinen Berechnungen rund 1.300 kg bei der Taurus II in GTO und 1.700 kg bei der Falcon 9 in GTO). Beide Träger könnten mittelgroße Kommunikationssatelliten befördern. Es zeigt sich auch, dass die Delta IV Zweitstufe in allen Fällen um einige Hundert Kilogramm schlechter ist.

Warum wird's nicht eingesetzt? Bei OSC will man sicherlich nicht in einen Bereich eintreten, in dem es schon genug Konkurrenz gibt. Kein US-Träger ist bei kommerziellen GTO-Transporten richtig erfolgreich und Ariane wird auch subventioniert und die USAF hat ja schon zwei Hauslieferanten für ihre Nutzlasten und SpaceX bewirbt sich ja da auch noch. Bei SpaceX ist es nicht ganz so offensichtlich, schließlich will die Firma ja den kommerziellen Markt umkrempeln. Eine Nutzlastverdoppelung wäre möglich. Also selbst wenn die Centaur keine billige Oberstufe wird, so ist doch schwer denkbar, dass sie teuer ist, wie sonst die ganze Falcon 9. Vor allem kommt man so in einen Bereich rein, der von der Falcon 9 und Heavy nicht abgedeckt wird.

Bei beiden Firmen scheint es nur einen Grund zu geben: Man will offensichtlich nur bei seinen bisherigen Lieferanten bleiben. Also OSC bei ATK und SpaceX will eben alles selbst machen.

Rakete: Falcon 9 Centaur V

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
289045 3659 2000 10258 2095
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260800 16800 2972
2 22586 1930 4415

Rakete: Falcon 9 Delta Zweitstufe

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
290093 3123 2000 10258 2095
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260800 16800 2972
2 24170 2850 4532

Rakete: Falcon 9 + Centaur V

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
337131 5945 2000 10258 2095
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260800 16800 2972
2 45800 2800 3295
3 22586 1930 4415

Rakete: Falcon 9 + Delta Zweistufe

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
338205 5435 2000 10258 2095
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260800 16800 2972
2 45800 2800 3295
3 24170 2850 4532

Rakete: Taurus II Centaur V

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
288841 4567 972 10258 1961
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260716 18715 3246
2 22586 1930 4415

Rakete: Taurus II Delta IV Zweistufe

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
289923 4065 972 10258 1961
Stufe Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 260716 18715 3246
2 24170 2850 4532

Die Geschichte des Space Shuttles - der fehlende Nachfolger

Nun da Atlantis die letzte Reise eines Shuttles durchführt, ist es Zeit die lockere Serie über das Shuttle zu Ende zu schreiben. Anfang der achtziger Jahre war klar, dass die  Shuttles nicht das erfüllten was man sich von ihnen versprach. Geplant war einmal ein Gefährt, dessen Transportkosten vor allem von den Treibstoffkosten geprägt war. Dessen Rumpf 100 Flüge übersteht und die Triebwerke 55. Vor allem aber eines das nur wenig Wartung erforderte. 160 Arbeitsstunden sollte die Überholung nach der Landung dauern.

Was man erhielt war ein empfindliches Gefährt. Die Triebwerke mussten nach jeder Landung demontiert und inspiziert werden. Die Hitzeschutzkacheln, bei denen es Jahre dauerte, einen Kleber zu finden, mit dem man sie an der Rumpfstruktur befestigen konnten mussten nach jeder Landung inspiziert, ausgetauscht und mit giftigen Chemikalien behandelt werden, dass sie kein Wasser aufnahmen, das sie sonst beim Start oder der Landung zerstören könnte.

In der Summe brauchte ein Orbiter 87 Tage für die Überholung zwischen zwei Flügen, anstatt rund 4 Wochen wie geplant. Alleine die Lohnkosten für die Wartung machten 200 Millionen Dollar aus. Die gesamten Startkosten mit dem notwendigen Personal am KSC erreichten 500 Millionen Dollar. Dabei hatte das Konzept auch kein Wachstumspotential. So ließen sich die Triebwerke nicht mehr im Schub steigern, begonnene Bemühungen in dieser Hinsicht wurden wieder eingestellt.

Das alles ist heute bekannt und es ist nichts besonderes. Wie in allen Gebieten ist es so, wenn man etwas völlig neues macht, dann wird es meistens falsch eingeschätzt. Es erscheint zu leicht oder man erhofft sich zu viel von ihm. Das Shuttle ist hier sicherlich herausragend, doch das trifft auch auf andere "Erstleistungen" zu, wie das Mercury Programm oder die Centaur Oberstufen, die beide ihren Kostenrahmen nicht einhalten konnten und hinter dem Zeitplan hinterherhinkten.

Aus heutiger Sicht wäre es wohl sinnvoll gewesen nach dem Verlust der Challenger sich zu fragen ob es nicht sinnvoller gewesen wäre damals die Shuttles außer Dienst zu stellen, oder nur noch unbemannt einzusetzen und ein Shuttle 2.0 anzugehen. Wie wir wissen ging das nicht. Wegen der "Jetzt erst Recht" Mentalität die gegen rationale Argumente siegte. Doch nehmen wir mal an die NASA hätte nach Shuttle 1.0 basierend auf den Erfahrungen sich an eine alternative gemacht. Wie könnte das aussehen? Nun es gibt zig Konzepte aber ich denke wichtiger sind die Lehren des Shuttles:

Es muss getrennt werden zwischen Transportmedium für Personen und Fracht

Bemannte Flüge sind immer teurer als unbemannte, selbst wenn dieselben Träger zum Einsatz kommen, alleine wegen der umfangreichen Kontrollen, der langen Vorbereitung etc. Der Hauptfehler des Shuttles war es das als bemanntes Gefährt konzipiert war, aber die meisten Flüge vor dem Verlust der Challenger eigentlich reine Transportaufträge waren. Diese hätte ein unbemanntes Shuttle besser durchführen können. Neben den offensichtlichen Einsparungen durch die geringere Sicherheitsmarge kommt noch hinzu, dass die Nutzlast größer ist, da alle Systeme die für die Besatzung nutwendig sind wie die Passagierkabine mit starker Wand, Vorräte, Strom, Wasser etc. wegfallen.

Es reicht wenn ein Orbiter wenige Male bis vielleicht ein Dutzend Mal eingesetzt werden kann

Natürlich ist es toll, wenn ein Orbiter 100 mal eingesetzt werden kann. Doch das hat auch Nachteile. Die Herstellung wird dann entsprechend teurer. Gleichzeitig habe ich keine echte Serienproduktion mehr, sondern nur noch ein Einzelexemplar zu fertigen. Im Shuttle Programm musste kein Orbiter mehr in den letzten 20 Jahren gebaut werden. Wenn ein Orbiter zweimal fliegt so entfällt pro Flug 50% der Herstellungskosten. Sind es 10 Flüge, so sind es noch 10% und man ist in einem Bereich wo die Wartungskosten dominieren. Ein Orbiter der nicht so teuer wie die Shuttles ist, aber nur etwa 10-mal fliegt ist ein Gefährt von dem eines in 1-2 Jahren gefertigt wird. So bleibt er in der Produktion und so können auch laufend Verbesserungen in diese einfließen. Bei vielen heutigen Konzepten geht man von viel geringeren Einsatzzahlen aus. Bei Hopper sollen z.B. die Triebwerke nach 5-7 Einsätzen komplett ausgewechselt werden.

Macht ein Shuttle für den Personentransport Sinn?

Auf der einen Seite ist es das was ja immer die Astronauten haben wollen - ein Spaceship, also mehr ein lenkbares Gefährt wie ein Flugzeug. (Auch wenn das beim Shuttle ja nur in den letzten paar Minuten der Fall ist, steht bis heute als Qualifikation bei der NASA: mindestens 1000 Flugstunden, Testpiloten bevorzugt). Auf der anderen Seite ist jedes Shuttle vom Aufbau her viel anfälliger als eine Kapsel. Es gibt bei einer Kapsel beim Wiedereintritt bei entsprechender Formgebung das Phänomen, dass sie sich selbst korrekt ausrichtet. Auf sie kann man einen Fluchtturm aufsetzen und sie kann wegen ihrer kleinen Größe viel massiver gebaut werden. Man kann bei einem Shuttle einiges nachrüsten. Aber er wird nie die Sicherheit einer Kapsel erreichen. Sicherlich ist eine Kapsel als Einmalgefährt teurer. Aber muss man sie nur einmal verwenden? Eine der Gemini Kapseln wurde zweimal eingesetzt. Wenn man sie nur als Zubringer zu einer Raumstation auslegt und so ein Servicemodul einspart, denke ich wird man eine Kapsel wiederverwenden können, wenn man den Hitzeschutzschild neu aufträgt. Auch hier reden wir ja nicht über Zig-Male. Es reicht die Kapsel einige Male erneut zu verwenden. schon zweimalige Verwendung dürfte 50% der Herstellungskosten (ohne Hitzeschutzschild und Fallschirm) einsparen.

Wie sieht der unbemannte Transport aus?

Basierend auf den Shuttle-Erfahrungen wäre ich sehr vorsichtig bei Konzeption der nächsten Generation. Es gibt ein grundsätzliches Problem: Je höhere Geschwindigkeiten erreicht werden müssen, desto leichter muss das Gefährt werden, wenn (wie heute gegeben) die Ausströmungsgeschwindigkeit der Gase nicht mehr signifikant gesteigert werden kann. Das bedeutet eine Oberstufe soll möglichst leicht sein. Auf der anderen Seite sind die Belastungen beim Wiedereintritt um so höher, je schneller das Gefährt ist, was zwangsläufig die Leermasse erhöht. Sinnvoll ist es in meinen Augen daher das Widerverwenden zuerst einmal auf die erste Stufe zu beschränken und dann dort auch kryogenen Antriebe einzusetzen, damit eine echte Kostenersparnis resultiert. (Die Shuttle-SRB konnten zwar geborgen werden, aber schon bei Ariane 5 wäre das Bergen und Wiederverwenden teurer als eine Neuproduktion). Ob dies dann ein Shuttle ist (Hopper Konzept) oder eine geflügelte Erststufe (LFBB-Konzept) ist, muss sich zeigen. Ich persönlich halte das letztere für praktisch einfacher umzusetzen. Die zweite Stufe würde in diesem ersten Schritt dann noch ein Verlustgerät sein. Wird sie Huckepack getragen könnte man nach einigen Jahren Erfahrung dann sie vielleicht auch durch eine wiederverwendbare Stufe ersetzen, ohne  gleich die erste Stufe neu zu konzipieren. Um Energie zu sparen (man benötigt auch Treibstoff um aus dem Orbit zurückzukommen), wäre es optimal nur bis nahezu Orbitalgeschwindigkeit zu beschleunigen und den Rest eine kickstufe erbringen zu lassen. Dann würde auch die Nutzlast für höhere Bahnen oder GTO.-Bahnen nicht so extrem abnehmen wie beim Shuttle. Ein derartiges Konzept ist z.B. das Everest von EADS/Dassault.

Zum Schluss noch ein paar Zahlen, die nun zu STS-135 veröffentlicht wurden. Die Durchschnittlich in den Orbit beförderte Nutzlast betrug nur 11.600 kg pro Flug. Weit unterhalb der Maximalmenge von 21 t (Columbia) bzw. 34,7 t (andere Orbiter) - das zeigt das man nicht mal das System nicht ausnutzen konnte. Die Gesamtkosten des Shuttles betrugen nach NAA Angaben 208 Milliarden Dollar. Sie waren damit höher als von Apollo (151 Millionen Dollar, beide Zahlen inflationskorrigiert).

Samstag 16.7.2011: Ein Plädoyer für sinnvolle Wissenschaft

Auf das Thema heute kam ich durch ein Buch das ich gerade bei Amazon Marketplace gekauft habe: Jenseits von Halley. Es ist die Geschichte von Giotto und es berichtet auch wie am Anfang das amerikanisch-europäische Kometenprojekt Ende der siebziger Jahre scheiterte (ratet mal warum....). Es gibt viele Inneneinblicke auch für mich. So wusste ich nicht das das JPL die Kamera bei Giotto stellen wollte und dafür sogar einen Strohmann als PI gewinnen konnte. Und das Buch endet wie Rosetta aus einem anderen amerikanisch-europäischen Programm entstand das eingestellt wurde: CRAF. Ja die Geschichte der schlecht gelaufenen Kooperationen mit der NASA ist lang und mir fällt einiges dazu ein - Dinge die gut liefen und Dinge die schlecht liefen.

Machen wir uns nichts vor: Überall muss gespart werden. Die USA stehen vor dem Staatsbankrott und das JWST steht auf der Kippe. Die ESA ist noch in einer guten Situation weil die Mittel alle 3-4 Jahre von dem ESA Konzil festgelegt werden und das letzte war 2008 vor der Krise. Aber auch hier sind einige Projekte teurer geworden wie BepiColombo und Exomars und andere werden teuer werden wie die Verlängerung der Betriebszeit der ISS.

Raumfahrt sollte sich immer auch nach ökonomischen Aspekten richten, auch die Forschung. Nun wie meine ich dies? Zum einen national, zum anderen international. National bedeutet dies die Kernkompetenzen zu erhalten. Deutschland hat sich schon vor der Raumfahrt mit dem interplanetaren Raum beschäftigt: mit den Teilchen (Postulation des Sonnenwindes durch Biermann), dem Staub (Das Wort Gegenschein hat sogar ins amerikanische Einzug gehalten) und den Kometen. Mit der Raumfahrt wurde dies ausgebaut. Die ersten Satelliten untersuchten genau die Wechselwirkung der Erde im erdnahen Raum. Später kamen die Helios-Raumsonden welche den interplanetaren Raum untersuchen und seitdem sind deutsche Instrumente die Staub detektieren oder chemische Analysen durchführen an Bord von amerikanischen Raumsonden wie Pioneer Venus, Galileo, Cassini oder Stardust.

Später kam der Einstieg in die Röntgenastronomie hinzu (Rosat, Abrixas, Instrumente bei Integral und XMM). Bei abbildenden Instrumenten gibt es die Sparte von Kameras (HMC, MOMS, Osiris, HRSC, Frame Camera bei Dawn) und vor allem Radar-Einsätzen (Beteiligung an Shuttle Missionen, TerraSAR-X, Tandem-X, SARLupe. Andere Aktivitäten sind die Protonenspektrometer an Bord von Mars- und Kometensonden und die Mösslbauerspektrometer.

Ähnliche Schwerpunkte wird man in anderen Teilen Europas finden. In Italien und Frankreich wird an anspruchsvollen IR-Spektrometern und abbildenden Spektrometern gearbeitet. In Schweden an UV-Spektrometern und der Detektion hochenergetischer Teilchen.

Diese Kompetenz muss erhalten werden. Das bedeutet, dass mit dem Fortschritt der Entwicklung alle paar Jahre ein weiterentwickeltes Instrument im Einsatz sein sollte. Das hält zum einen die Teams zusammen. Zum anderen kann man so Messungen vergleichen, Erkenntnisse erweitern. Aber es ist auch billiger ein Forschungsgebiet am Leben zu erhalten anstatt eines komplett aufzubauen, für einige Jahre zu betreiben, einzustellen und dann neu anzufangen wenn man wieder in diesem Gebiet aktiv werden will.

Daher ist es sinnvoll internationale Missionen zu planen. Denn national, aber auch in der ESA gibt es zu wenige Fluggelegenheiten. Das geschah schon in der Vergangenheit. Auf US-Raumsonden flogen europäische Instrumente mit. Auf europäischen im Gegenzug auch US-Instrumente. Doch es ist begrenzt, weil natürlich auch die USA hier Kompetenzen haben und z.B. würde Deutschland kaum eine Chance haben auf einem US-Raumschiff eine Kamera zu installieren. (Außer sie schaffen es eine komplett neuu in nur etwas mehr als 2 Jahren zu entwickeln wie bei Dawn...) Innerhalb von Europa sind die Möglichkeiten größer.

Doch kann man dies noch ausbauen. Warum setzt man Instrumente die für Planetensonden entwickelt wurden nicht auch zur Erdbeoachtung ein bzw. für Satelliten welche den erdnahen Raum erforschen? Warum plant man bei Raumsonden nicht von vorneherein internationale Sonden die gemeinsam betrieben werden. Auch bei den Subsystemen kann man zusammen abreiten. So werden aus Europa schon heute Antriebssysteme und Solargeneratoren in US-Raumsonden verwendet. Im erdnahen Raum kann man an gemeinsame Satelliten (z.B. für Wetterbeobachtung) denken, mit identischer, internationale Instrumentierung - das macht es auch einfacher die Daten zu vergleichen. Stattdessen betreiben die ESA, JAXA, China und die NASA jeweils eigene Wettersatellitensysteme.

Resultieren würden Kosteneinsparungen aber auch eine Kontinuität. Wir reden immer gerne von internationaler Kooperation. Aber leider klappt sie in der Praxis nicht so gut. Es klappt in kleinem Maßstab wenn die USA einige europäische Instrumente mitnehmen und umgekehrt. Bisherigen internationale Missionen waren eher zum Scheitern verurteilt (meistens stellte die NASA ein). Genauso ist das auch bei der bemannten Raumfahrt, wo es zumindest für Europa drauf hinausläuft, viel zu bezahlen und wenig dafür zu bekommen. Man redet dann von Marsmissionen (bemannt wohlgemerkt) von internationalen Crews. Dabei wäre es jetzt schon möglich und sinnvoll. So wird wahrscheinlich nichts draus werden - schade eigentlich.

Sonntag 17.7.2011: Lückenfüller

Weil mir gerade nicht so viel einfällt, fülle ich den heutigen Tag mal mit ein paar Dingen. Zuerst mal wieder eine Fernsehserie, die mir auffiel. Ehrlich gesagt, sie fiel mir schon vor zwei Jahren auf: Das Sommermädchen auf Pro 7. Also wer meint, dass GNTM so der Tiefpunkt des Vorführens auf Pro 7 ist (ich weiß, andere Sender sind noch viel schlimmer), der muss sich diese Sendung ansehen. Da kämpfen ein Dutzend "Mädchen" (Die Anführungszeichen weil die meisten >25 sind, die älteste ist 31) um den absolut belanglosen Titel des Sommermädchens. Die Prüfungen haben im Prinzip die Aufgabe die Mädchen zu blamieren oder viel Haut zu zeigen. Also dass Frauen sich nicht trauen vom 3 m Turm zu springen oder nur Body gepainted Fußball spielen. Vor zwei Jahren gab es das schon mal mit Moderatoren, die keiner kannte und als Höhepunkt gab es damals "Bodychecker" vor denen die Kandidatinnen Kunststückchen machen mussten und wenn sie durchfielen wurden sie in den Pool geschubst. Diesmal hat man die Dauer-C Promis Jana Ina und Giovannie Zaerlla verpflichtet. Natürlich lebt dies von den dummen Sprüchen der Kandidatinnen. So flog letzte Woche eine raus, die keine 10 s unter Wasser bleiben konnte, weil ihre Silikonbrüste zu viel Auftrieb ergeben .... Nach zwei Sendungen ist das Sommermädchen nun aber schon aus der Prime Time rausgeflogen.

Bei mir persönlich gibt es auch neues. Dem einen oder anderen wird es aufgefallen sein - es gibt wieder mehr neue Aufsätze auf der Website. Umgekehrt komme ich bei den Büchern nicht so weiter. Natürlich hängt das zusammen, denn die Zeit ist begrenzt. Alleine der Blog steht jeden Tag für 1,5 bis 2 Stunden Arbeit. Wenn ich dann noch an einer Webseite arbeite ist der Tag gelaufen und meistens der nächste auch noch. Beim Diätbuch bin ich dagegen erst bei 100 Seiten, wobei davon auch noch mehr als die Hälfte vom ersten Buch übernommen ist (die Einführung in die Ernährung). dafür habe ich inzwischen begonnen ein Buch über die nächste Marsmission Curiosity zu schreiben - wobei ich allerdings mit der historischen Marsforschung und den früheren Raumsonden angefangen habe. So nebenher arbeite ich immer wieder mal an der Neuauflage des Raketenlexikons - wie schon seit mehr als einem Jahr. Immer wieder wenn ich was entdecke, wird ergänzt, so jetzt gerade weitere Daten der Feststoffmotoren von ATK.  Irgendwie ist das Winterhalbjahr für mich besser zum Bücherschreiben. Neben den beiden Büchern ist ja noch eines beim ersten Korrekturleser, sodass derzeit 4 in der Queue sind.

Ansonsten gibt es nur positives zu vermelden. Vier Bücher haben letztes Jahr die 100 Exemplare Grenze gerissen und es gibt dann von der VG-Wort einen kleinen Bonus. Bei der DHBW wo ich Informatik als Nebenfach unterrichte, habe ich erfahren, dass das Fach nächstes Jahr aufgewertet wird und nun nicht mehr mit Elektrotechnik zusammengelegt wird. Das korrespondiert auch mit mehr Unterrichtsstunden. Das Problem das ich bisher habe, ist die Motivation der Studenten, die meinen Informatik wäre überflüssig und wenn dann sollte man doch Excel lernen. Ich hoffe mal, das ändert sich wenn man das Fach nicht mehr so leicht nehmen kann. Wie man zu dieser Einschätzung kommen kann ist mir ein Rätsel. Denn im Prinzip ist es doch so, dass der Computer alles was automatisiert werden kann, was nur Erfahrung benötigt ersetzt. Da dürfte es nicht lange dauern, bis die Hauptaufgabe - Zeichnungen machen  - von Maschinenbauern vollständig automatisiert ist. Und das einzige Fach bei dem man selbst denken muss, und dass eben dadurch eine Zukunftsqualifikation ist meinen sie wäre überflüssig.... Eventuell kann ich im Herbst auch noch eine weitere Vorlesung an einer anderen Fakultät halten, doch das ist noch offen.

Passend dazu bekam ich auch die Anfrage ob ich an einem Projekt das ich schon als Student geschrieben habe, weiter programmieren könnte. Mich hat das etwas erstaunt, weil die letzte Auskunft war, dass sie von der eigens für ihre Zwecke programmierten Lösung auf Standardsoftware umsteigen wollten, wobei glaube ich auch die Produktpolitik des Herstellers der Hardware für die ich die Anwendung programmiert habe eine Rolle spielte. Die war wohl zu teuer und der Support befriedigte nicht so ganz, sodass sie sich von dem Meßsystem trennen wollten und dann natürlich auch die softwarefrage sich neu stellt. Mal sehen was draus wird oder ob nur bugfixes anstehen.

Also derzeit fast nur gute Nachrichten. so sollte es immer sein ....

Montag 18.7.2011: Ozon

Die Idee von einem Kommentar Hans, erdnahes Ozon in die Stratosphäre zu schaffen, bringt mich wieder mal zu einem Chemieblog und zwar zu Ozon. Zuerst einmal was ist Ozon? Ozon ist das Molekül O3, also ein Molekül aus drei Sauerstoffatomen. Das normale Sauerstoffatom O2 hat nur zwei. Was also ist am O3 so besonderes und warum gibt es kein O4, O5 usw... ?

Nun Ozon ist eine energiereiche Bindung. Das normale O2 Molekül besteht aus zwei Sauerstoffatomen, die durch eine Doppelbindung verbunden ist. Diese Doppelbindung ist erheblich stabiler als eine Einfachbindung. Beim Ozon sind drei Sauerstoffatome durch Einzelbindungen verbunden, wobei sie ein Dreieck bilden. Neben der schwächeren Bindung (Einzel- gegenüber Doppelbindung) steht dies Molekül unter innerer Spannung, weil bei Einzelbindungen der Winkel zwischen zwei Bindungen normalerweise 109,5 Grad beträgt, in einem Dreieck er aber auf 60 Grad verkleinert ist.

Ozon zerfällt daher unter Energieabgabe:

2 O3 → 3 O2 + 285,6 kJ

 Vor allem ist es sehr reaktiv. Es oxidiert auch Stoffe, die von normalem Sauerstoff nicht angegriffen werden, so Quecksilber Silber oder Schwefel und Phosphor bei Zimmertemperatur. Natürlich auch alle organischen Stoffe, weshalb es auch zur Desinfektion und Sterilisierung genutzt wird. Dabei ist nur einer der drei Sauerstoffatome aktiv, denn die anderen können, wenn sie denn unerwünschten Dritten aus ihrem Molekül geschmissen haben, ein O2 Molekül bilden. Er ist gewissermaßen eine Zwischenform zwischen dem äußerst reaktiven, aber instabilen, atomaren Sauerstoff und dem zwar chemisch reaktiven, aber doch eben verglichen damit "zahmen" normalen Sauerstoff.

Doch wie entsteht es. Nun es gibt mehrere Möglichkeiten. In der Hochatmosphäre geschieht durch UV-Strahlung. UV-Strahlen mit einer Wellenlänge von 242 nm haben eine ausreichende Energie damit ein Photon die Energie für die Spaltung eines O2 Moleküls aufbringt:

O2 + 499 kJ → 2 O*

O2 + O → O3 + 106,5 kJ (Wärmeabgabe)

Allerdings ist auch das Ozon nicht stabil. Es absorbiert selbst Strahlung von weniger als 310 nm und wird so gespalten:

O3 + 106,5 kJ → O2 + O

Schließlich kann noch Ozon mit atomaren Sauerstoff reagieren:

O3 + O → 2 O2

So absorbiert die Ozonschicht einen Großteil der UV-Strahlung unter 310 nm. Das Maximum der Ozonkonzentration liegt bei 20 bis 25 km. Zum einen nimmt natürlich die Konzentration nach unten hinzu, auf der anderen Seite wird ja UV-Strahlung absorbiert und immer weniger kommt in tiefere Luftschichten.

Doch wie entsteht in Bodennähe Ozon? Nun wenn wir von dem Ozon im Hochgebirge absehen, das der kümmerliche Rest des Ozons aus der Stratosphäre ist, braucht man dafür einen Katalysator. Dazu dient in der unteren Atmosphäre (Troposphäre), in der kaum noch kurzwellige UV-Strahlung ankommt, das Stickstoffdioxid:

NO2 + hν → NO  + O* (hν = Lichtquant)

O* + O2 → O3

Dafür reicht nun Strahlung unter 420 nm aus. Und das ist der energiereiche blaue Anteil des Lichts sowie der daran anschließende UV-Bereich, der ja auch den Erdboden erreicht (sonst gäbe es weder Bräune noch Sonnenbrand). Das NO2 wird von uns in die Luft geblasen, entsteht aber auch bei Blitzen oder durch die Ausgasung von Böden. Das lustige ist ja ,das die gleichen Gase dann auch noch zur Zerstörung der Ozonsicht beitragen, dazu unten noch mehr.

Nun mag man denken, das Ozon ist ja bei so viel organischer Substanz in der unteren Atmosphäre nicht besonders stabil, doch auch hier hilft das Stickoxidradikal bei der Regeneration:

NO + HO2 → OH + NO2

NO2 + hν → NO + O*

O2 + O* → O3

Das OH2 Radikal entsteht ebenfalls durch Strahlung durch Reaktion von OH mit CO und Aldehyden. Ozon hat so in Bodennähe eine Halbwertslebensdauer von 5-10 Tagen, wobei es tagsüber durch Strahlung erzeugt wird und nachts abgebaut. So wundert es nicht, das es Ozonalarm besonders im Sommer bei viel Sonne gibt.

Nun gibt es in der Stratosphäre auch Reaktionen, die das Ozon abbauen: Im Prinzip läuft es ab nach:

X + O3 → XO + O2

O3 + hν → O2 + O

O + XO → O2 + X

X geht also aus der Reaktion unverändert heraus. Es ist also ein Katalysator. X kann stehen für Br, Cl, OH, NOx. Das Problem sind NOx und Cl. Chlor ist so reaktiv, dass es normalerweise nicht in nennenswerter Menge in die Stratosphäre gelangt. Nun ja, bis man polychlorierte Kohlenwasserstoffe erfunden hat, Stoffe die es in der Natur nicht gibt und die wirklich stabil sind. Ja toll, so stabil, dass sie bis in die Stratosphäre gelangen wo dann durch UV Strahlung Chlor aus den Molekülen freigespaltet wird.

Die zweite Quelle ist NOx. Zum einen gelangt natürlich auch ein Teil des NO und NO2 aus der Troposphäre in die Stratosphäre und mit den erhöhten Mengen ist da natürlich auch einiges mehr in der Stratosphäre. NO2 wird auch von Düsenflugzeugen direkt in die Stratosphäre raus gepustet. Vor allem gelangt das Lachgas N2O in die Stratosphäre. Es kann nicht durch sichtbares Licht gespalten werden und wird erst in der Stratosphäre durch UV-Strahlen  zu NO und N ausgestaltet. Dann setzt das NO Radikal sein Zerstörungswerk fort.

Tja und woher stammt das NO2? Aus Autos, Industrieanlagen.... N2O wird von rülpsenden Kühen und Sumpfgebieten freigesetzt (es ist Abbauprodukt von Gärungen durch Bakterien). Nun gibt es nicht so viele Sümpfe - bei uns, aber in Asien wird Reis unter Wasser angebaut. Dafür emittiert eine Kuh genauso viel klimaschädliches Lachgas wie ein Auto. (Ein Auto zwar mehr Stickoxide, aber das Lachgas der Kuh gelangt eben viel besser bis in die Stratosphäre).

Da wie oben beschrieben Ozon durch UV-Strahlung neu gebildet wird wird, nimmt seine Konzentration durch den katalytisch induzierten Zerfall vor allem im Winter ab, wenn oberhalb de 66 Breitengrads kaum noch Licht an die Pole kommt. Dieser im Winter auftretende Ozonabbau wird daher auch als Ozonloch bezeichnet, weil ja nicht die ganze Ozonschicht betroffen ist, sondern vor allem die Polgebiete. Die Folge ist eine geringere Absorption von UV-Strahlung, die dann in höherem Maße zum Erdboden gelangt und dort natürlich schädlich ist.

Wer sich weiter informieren will, dem sei dieses Buch ans Herz gelegt: Die Luft, in der wir leben. Physik der Atmosphäre.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99