Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 235: 2.7.2011 - 6.7.2011

Samstag den 2.7.2011: Stahlherstellung

Nun zu dem zweiten Teil meiner Serie über Eisenverhüttung. Gusseisen wie es aus dem Hochofen kommt, weist einen recht hohen Kohlenstoffanteil auf, dazu kommen andere Verunreinigungen wie Mangan, Silizium und Phosphor. Diese Begleitelemente machen Gusseisen für eine Reihe von Anwendungen unbrauchbar. So wird es schon lange vor seinem Schmelzpunkt weich (weises Roheisen), ist hart oder spröde (grauen Roheisen). Es ist weder elastisch, noch thermisch hoch anspruchbar. Teilweise versuchte man durch kombinieren von weisen und grauem Roheisen in dünnen Schichten und zusammenschmieden, um diese Nachteile zu vermeiden. Der heutige Weg ist es aber den unerwünschten Kohlenstoff aus dem Material zu entfernen.

Es gibt eine Reihe von Verfahren. Ich will nur die Grundzüge der wichtigsten beiden Verfahren hier beschreiben. Als Stahl bezeichnet man eine Legierung, die größtenteils aus Eisen besteht, wobei der Kohlenstoffgehalt unter 1,7% liegen sollte. Nach DIN-Norm müssen es unter 2,06% sein. Ab einem Gehallt von 1,7% ist der Stahl schmiedbar und schweißbar. Die Methode beruht darauf, dass die Verunreinigungen im Eisen noch heftiger mit Sauerstoff reagieren und man so durch Sauerstoffzufuhr sie verbrennen kann, bevor das Eisen selbst verbrennt, Zwei Verfahren haben sich eingebürgert: Beim ersten entfernt man den Kohlenstoff fast vollständig und fügt dann Roheisen mit bekanntem Kohlenstoffgehalt zu, um einen bestimmten Gehalt zu erreichen. Beim zweiten wird langsam der Gehalt bis zum Wunschgehalt abgesenkt.

Ein Verfahren des ersten Typs ist das "Windfrischverfahren". Das Roheisen kommt in große Behälter, die feuerfest ausgekleidet sind. Die Auskleidung orientiert sich nach den Verunreinigungen. Enthält das Eisen kein Phosphor, so kann Quarz oder andere hochschmelzende "sauer" reagierende Gesteine verwendet werden. Enthält das Roheisen Phosphor, so ist die Auskleidung "basisch" und besteht aus Calcium- und Magnesiumoxid, das mit dem Phosphor zu Calcium/Magnesiumphosphat reagiert. Das ist wichtig, weil Eisen unedler als Phosphor ist, also es dauernd den Phosphor regenerieren würde und dabei selbst verbrennen würde, wenn nicht das gebildete Phosphorpentoxid mit dem Calciumoxid / Magnesiumoxid reagieren würde. Dabei entsteht Thomasmehl, dass früher ein sehr wichtiger Dünger war.

Die Behälter ("Konverter") werden nur zu einem Siebtel gefüllt und dann wird entweder durch Düsen Druckluft, oder heute fast vorwiegend reiner Sauerstoff durch eine in der höhe verschiebbare Lanze hineingepresst. (etwa die Hälfte der Sauerstoffproduktion wird zur Stahlherstellung benötigt). Das 1.300 Grad heiße Metall bleibt dann alleine durch die Verbrennungswärme heiß:

Si + O2 → SiO2 + 912 kJ

2P + 2,5 O2 → P2O5 + 1493 kJ

C + O2 → CO2 + 394 kJ

Mn + 1/2 O2 → MnO + 385 kJ

 

Zuerst verbrennen Silizium und Mangan, dann erst der Kohlenstoff. Die Flamme wird dann blendend weis und der Lärm steigt zu Donner an. In basischen Gefäßen folgen dann Phosphor und Schwefel. In sauer ausgekleideten Gefäßen blieben sie im Eisen. Daneben verbrennt auch 10-12% des Eisens. Das ganze dauert nur eine Viertelstunde. Danach wird Eisen mit bekanntem Kohlenstoffgehalt zugegeben (Rückkohlung") und Ferromangan zu. Das Mangan reduziert das durch die Reaktion gebildete Eisenoxid wieder zu Eisen, dass sonst den Stahl brüchig machen würde.

Das zweite Verfahren, das Herdfrischverfahren, reduziert langsam den Gehalt an Fremdstoffen. Der Prozess ist daher beim gewünschten Kohlenstoffgehalt abbrechbar. Es wird kein flüssiges Roheisen eingesetzt sondern festes, über das eine 1.500°C heiße sauerstoffreiche Flamme streicht. Weiterer Sauerstoff wird zugebracht durch zu Zugabe von verrostetem Alteisen ("Schrott-Verfahren") oder sauerstoffreiche oxydische Erze ("Roheisen-Erzprozess"). Beim ersten Prozess kommen nur auf 20% Roheisen 80% Schrott, der dabei zu Eisen reduziert wird. Wegen dem höheren Sauerstoffgehalt des Erzes beträgt der Erzzuschlag dagegen nur 20%. In beiden Fällen wird Kalk zugesetzt um den Phosphor zu entfernen.

Es gibt noch einige andere Prozesse, so kann man auch den Eisengehalt reduzieren wenn man Roheisen in Eisenoxid packt und vier Tage bei 800-850°C erhitzt. Auch hier reduzieren die Verunreinigungen das Eisenoxid und nehmen den Sauerstoff auf.

Verwechselt mit dem chemischen Prozess der Kohlenstoffreduktion ist der Effekt des Schmidens. Stahl mit einem Kohlenstoffgehalt von 0,4 bis 1,7 % ist härtbarer Stahl. Er besteht aus einer Mischung von α-Eisen und Zementit. Erhitzt man ihn, so bildet sich die bei hohen Temperaturen stabile Mischung von γ-Eisen und Kohlenstoff. Wird diese schnell abgekühlt, so kann das Eisen noch in die α-Form übergehen, nicht mehr jedoch der Kohlenstoff. Dieser Stahl ist erheblich härter als der normale Stahl. Durch langsames Erhitzen kann jeder gewünschte Zwischenzustand erreicht werden.

Heute haben Stähle mit größeren Mengen an Fremdelementen eine wichtige Bedeutung. Kobalt ergibt sehr korrosionsfeste Legierungen, (Eingesetzt für Werkzeuge) Nickel steigert die Zugfestigkeit Härte und Korrosionsfestigkeit und wurde lange für Panzerplatten zugesetzt, Vanadium verbessert die Härte und Schmiedbarkeit und wird für Baustähle und Werkzeugstahl eingesetzt, Chrom ergibt durch seine dünne, vor weiterer Oxidation schützende Oxidschicht nichtrostende, hitzebeständige Stähle. Chromnickelstahl ist hart, zäh und nichtrostend (V2A Stahl mit 18% Chrom und 8% Nickel wird z.B. für Töpfe und Besteck eingesetzt, rostet nicht und ist der wichtigste produzierte Stahl). Zulegieren von Molybdän und Wolfram führt zu einem Stahl, der auch noch bei Rotglut hart ist und daher für Werkezuge eingesetzt wird die durch die Reibung sehr heiß werden wie z.B. Bohrmeisel.

Sonntag 3.7.2011: Buchkritik: David Shayler: Apollo the Lost and forgotten Missions.

Das ist das dritte Buch von David Shayler, dass ich lese. Das erste "Gemini steps to the Moon", enthielt zwar viele Fakten zu dem Projekt, war aber recht schlecht aufbereitet, so wurden nicht die Missionen als Ganzes besprochen, sondern es fanden sich Details in den Rubriken "Medizinische Ergebnisse", "Kopplungsmanöver" und "Rückkehrmanöver" etc. Ich vermisste allem Details zu den Raumschiffen selbst. Das zweite Buch "Skylab - Americas Space Station", war um einiges besser und logischer aufgebaut, behandelte also Projektgeschichte und Missionen chronologisch.

Während ich diese beiden Bücher vornehmlich "beruflich" las, nämlich um mich für meine eigenen Bücher zu informieren, war das Dritte gedacht als Urlaubsschmöker, wenn ich nach Nesselwang reise. Da gibt es immer rund drei Stunden Hin- und Rückfahrt, die ich gerne mit einem Buch fülle. Aber diesmal verlor ich schon auf der Hinfahrt die Lust. Es liest sich äußerst schwer. Das Problem des Buches ist, dass der Autor keinen echten Schwerpunkt setzt. Also wer sich mit Raumfahrt auskennt, weiß, dass im Umfeld von Projekten jede Menge Projektstudien entstehen. wie man die Teile für was anderes verwenden kann, wie man sie weiterentwickeln kann. Bei einem 25 Milliarden Dollar Programm wie Apollo sind es dann besonders viele. Dazu kommt die laufend angepasste Missionsplanung, einschließlich dreier gestrichener Missionen. Das alles enthält das Buch. Das bedeutet, dass der Autor ein sehr umfangreiches Thema sich vorgenommen hat und entsprechend jedes kurz wegkommt. Es versucht also allen Mannschaftszuweisungen zu Apollomissionen zu folgen, beschreibt die geplanten Apollo 18-20 Missionen, wie auch was Apollo 13 machen sollte, wenn gelandet würde. Genauso werden Missionen beschrieben, die 1966 noch geplant waren und dann nach dem Brandt von Apollo 1 wegfielen.

Die Frage ist, ob das sinnvoll ist, alleine den verschiedenen Crew-Assignments zu folgen ist schon schwer. Das gleiche gilt bei den Missionsplanungen. Das Hauptproblem ist dass Shayler die Missionen nur beschreibt. Er geht nicht in die Tiefe, in die Technik, was vor allem bei den Dingen interessant wäre, die nicht einfach eine Umwidmung von Apolloraumschiffen gewesen sind wie das Mondlabor oder die Mars/Venusvorbeiflugpläne. Stattdessen findet man eine knappe Beschreibung der Modifikationen, die nicht sehr viele Details beinhaltet. Aber keinen Flugplan, keine nacherzählte Mission.

Ich habe dann relativ schnell die Lust am sequentiellen Lesen verloren und begonnen in Kapitel rein zu schauen, die mich interessierten, aber auch da angesichts des gleichen Stils die Lust verloren.

Das leitet über für wen das Buch ist. Es ist sicher nicht das Buch das man im Regal stehen haben muss, wenn man an Apollo oder generell an bemannter Raumfahrt interessiert ist. Es ist ein Buch für Fans, die alles über Apollo wissen wollen und die dann schon die Astronautenbiographien oder Bücher über Teilaspekte wie Digital Apollo gelesen haben. Im Prinzip sind Titel und die Beschreibung ja nicht falsch. Der Fehler lag wohl eher darin, dass ich nach zwei Büchern des Autors ohne einen Blick ins Buch geworfen zu haben, was ja geht und dann wohl erkannt hätte das es nichts für mich ist.

Link zum Buch: Apollo: The Lost and Forgotten Missions (Springer Praxis Books in Space Exploration)

Montag 4.7.2011: Taurus II - man hätte es besser machen können

Als sich OSC 2006 um den Auftrag für die COTS Subventionen bewarb, benötigten sie neben einem Raumschiff auch eine Trägerrakete. Die größte bisher von OSC produzierte war die Taurus XL mit maximal 1,7 t Nutzlast. Die Delta II, die in der richtigen Größe war, würde in wenigen Jahren auslaufen. 2009 beendete die Air Force die Nutzung, die NASA schloss sich an. Eine von zwei Startrampen wurde sofort geschlossen.

Die Frage ist nun, wie kommt dann das Raumschiff in den Orbit? Atlas V und Delta IV wären zu groß gewesen und auch wenn sich in den letzten Jahren einiges getan hat, dürfte der Start auf einer russischen Rakete (z.B. hat die Sojus die richtige Nutzlast) wohl ausscheiden, zumal die Sojus ja auch noch die Progress und Sojusraumschiffe starten soll und die Produktion auch so hochgefahren werden muss.

Was herauskam, bezeichnet man als "Minimierung des Entwicklungsrisikos". Man nehme vorhandene Triebwerke (die NK-33, von denen 60 aus der Konkursmasse von Kistler bei Aerojet lagern), eine vorhandene Fertigung für Tanks (die von KB Junschnoje für die Zenit) und füge beides zur ersten Stufe zusammen. Dann fehlt noch eine zweite Stufe. Die Wahl der zweiten Stufe verblüfft aber einen. OSC wählte eine neue Feststoffoberstufe, die erst entwickelt werden musste, den Castor 30. Okay, das OSC, welche bisher nur Stufen von ATK einsetzte, nun wieder eine Feststoffoberstufe von ATK wählt ist nicht so verwunderlich. Eine Feststoffoberstufe muss auch nicht unbedingt eine kleinere Performance als eine Stufe mit mittelenergetischen Treibstoffen aufweisen. Die gewählte Castor 30XL hat z.B. einen sehr hohen spezifischen Impuls und ein Voll/Leermasseverhältnis von 12 - zumindest letzteres wäre ein Spitzenwert für eine gleich große Stufe mit lagerfähigen Treibstoffen  oder LOX/RP-1. Zumindest eines ist klar: es gibt in den USA kein Triebwerk in der benötigten Schubklasse und die Entwicklung einer eigenen Stufe ist teuer.

Für OSC wird die Minimierung des Entwicklungsrisikos daher oberste Priorität gehabt haben, also die zweite Stufe soll erst mal preiswert in der Entwicklung sein. Warum? Nun OSC ist nicht Boeing und nicht Lockheed Martin. Vor allem aber: Die Delta wurde eingestellt, weil es zu wenige Nutzlasten gab. Wenn es zu wenig für die Delta gibt, so wird eine Taurus II auch auf nicht viele Starts hoffen dürfen. Schlussendlich gibt auch die Wahl der NK-33 Triebwerke, von denen es ja nur noch wenige gibt gegen eine hohe Startrate. Sie reichen für 36 Flüge. Derzeit umfassen COTS, CRS und ein Erprobungsstart 15 Flüge. Das lässt weitere 21 für einige andere Nutzlasten und weitere Versorgungsflüge. Zum Vergleich: Als die Delta II (im selben Nutzlastbereich) noch gefragt war, flog sie in 20 Jahren 131-mal.

Also soweit kann ich den Intentionen noch folgen: wenige geplante Flüge, geringe Investitionen. Nur in einem nicht: Warum eine neue zweite Stufe entwickeln? Die Taurus II wiegt beim Start rund 275 t. Bei zwei Stufen und in etwa gleichen spezifischen Impulsen würde man erwarten, dass die beiden Stufen zueinander und zur Nutzlast in etwa das gleiche Verhältnis aufweisen. Das sind bei 5,1 t Nutzlast dann rund 35 t für die zweite Stufe. Der Castor 30 Antrieb wiegt aber nur etwa 14,5 t. (30 steht für 30.000 Pfund Gewicht). Interessanterweise hat ATK ja schon den Castor 120 Antrieb in der Fertigung. Er ist etwas überdimensioniert und ohne Düse für den Vakuumeinsatz, jedoch hätte er dieselbe Nutzlast aufgewiesen. Mit einer längeren Düse sogar etwas mehr. Der Vorteil wäre gewesen, dass die Entwicklungskosten weggefallen wären. Das spielt bei wenigen Flügen schon eine Rolle. Warum nun ein neuer Antrieb, der noch dazu zu klein ist, gewählt wurde ist offen. Meine persönliche Meinung: Bekannt ist, dass der Castor 30 ein verkürzter Castor 120 ist, mit einer Düse für den Vakuumeinsetz. Da der Durchmesser bedeutend kleiner als der der ersten Stufe ist, wird er von der Nutzlastverkleidung mit umhüllt und die wäre wahrscheinlich bei einem Castor 120 dann einfach zu lang geworden. Interessanterweise entsteht nun gerade ein Castor 30XL, der mit rund 20 t Startgewicht näher an der optimalen Größe ist.

Was ich mich viel mehr Frage, ist aber warum OSC nicht die Centaur III oder die zweite Stufe der Delta 4 (4m Version) einsetzt. Bedie sind kompatibel zum Durchmesser der ersten Stufe (3,90 m, Centaur III: 3,05 m, Delta Zweistufe 4,0 m) und sie sind kryogen, d.h. weisen einen höheren spezifischen Impuls auf. Ich habe das mal gemacht und komme bei der Centaur III auf rund 10,8 t Nutzlast und bei der Delta 4 Zweitstufe auf 10,7 t. Da dies eine Nutzlastverdopplung ist und die Stufen existieren, ist das zuerst nicht einzusehen. Sie sind natürlich teurer als die Stufe von ATK, aber bei der doppelten Nutzlast wird es insgesamt billiger, denn sie kosten bestimmt nicht genauso viel wie der Rest der Rakete.

Nun es kann technische Gründe geben, wobei ich mir das zumindest bei der Centaur, die nun ja schon einige Umzüge bei den Trägerraketen hinter sich hat, kaum denken kann. Keine andere Oberstufe wurde auf so vielen unterschiedlichen Erststufen gestartet. Wenn die Cygnus als Nutzlast feststeht, ist natürlich eine Rakete welche die doppelte Nutzlast transportieren nicht von Vorteil. Die kann nicht genutzt werden, denn wenn der Nutzlastraum voll ist, ist er voll. Doch auch die Cygnus hat sich in der Entwicklung gravierend gewandelt und kam damals noch mit Wiedereintrittskapsel. Vor allem plante OSC ja eine selbst entwickelte LOX/LNG Stufe die immerhin die Nutzlast um 50% gesteigert hätte. Inzwischen wurde sie wohl begraben. Man kann nur spekulieren. Mit LOX/LH2 stößt die Taurus II in den Nutzlastbereich der kleinen Atlas V und Delta 4 Varianten vor. Wahrscheinlich ist das der Grund gewesen - wozu sich zwei neue Konkurrenten schaffen?

Ich denke OSC hat sich auf die Nische von 5-7 t Nutzlast, also die Delta II Nutzlast beschränkt, weil es hier auch nach Ausstieg des DoD immer noch einige NASA-Nutzlasten gibt. kleinere Raumsonden (mit Star 48V Oberstufe), Erdbeobachtungssatelliten. Nicht viele Starts aber einige. Schließlich hat die NASA schnell noch alle verfügbaren Delta II gekauft um den Zeitraum bis 2013 abdecken zu können, weil sie vorher weder Falcon 9 noch Taurus II für sicher genug für ihre teuren Nutzlasten hält. Einziger Konkurrent wäre dort SpaceX, die bei Auftragsvergabe für COTS noch keinen erfolgreichen Start hinter sich hatten. Die Überlegung war wohl, dass sie scheitern würden oder ihre Preise nicht halten könnten. Ob diese Rechnung aufgeht wird sich zeigen. Aber auch so wird es 2-3 Starts des ISS-Versorgers pro Jahr geben. Das ist in diesem Segment (wenn man sich die Zahl der Starts von Rockot, Dnepr, Taurus XL also eingeführter Typen), in den letzten Jahren ansieht gar keine so schlechte Bilanz.

Billiger wird's nach bisherigen Verlautbarungen nicht. Inzwischen kostet die Taurus II deutlich über 80 Millionen Dollar. Es könnte aber auch sein, dass die CRS Flüge die einzigen Nutzlasten bleiben. Nicht nur wegen der Konkurrenz von SpaceX. Zum einen soll eine Athena IIC von unten her in die gleiche Nutzlastregion kommen (auch wenn man in den letzten 2 Jahren nichts mehr gehört hat), vor allem aber verhandelt die NASA mit dem DoD über die Buchung von Flügen aus dem EELV Programm. Dessen hohe Fixkosten rühren von wenigen Starts her, sodass sich die paradoxe Situation ergibt, dass die NASA diese Flüge nicht mehr als eine Delta II kosten. und Atlas und Delta 4 sind flugerprobt ...

Dienstag den 5.7.2011: Buchkritik: Dirk H. Lorentzen: Mission Mars

Eigentlich kaufe ich kaum noch deutschsprachige Raumfahrtbücher. Die meisten wenden sich an an ein allgemeines, wenig vorgebildetes, Publikum. So auch dieses. Da ich mit dem Gedanken spiele, ein Buch über die nächste Marsmission zu schreiben, dachte ich wäre es ganz interessant zu lesen, wie jemand ein ähnliches Buch über die vorletzte Landung geschrieben hat.

Das Thema ist die Mission der beiden Mars Rover Opportunity und Spirit und der Raumsonde Mars Express, zumindest in den ersten Monaten nach der Landung, denn das Buch ist schon von 2004, immerhin als Nebeneffekt sehr günstig zu haben.

Das es im Kosmos Verlag erscheint und man an eine große Auflage dachte, drückt sich in der hochwertigen Aufmachung aus: Hardcover ist heute schon eher selten, dazu sind die Seiten im Farbdruck. Das Buch ist sicher etwas für alle Freunde von Bildern. Es gibt eine Menge davon. Manche erstrecken sich über eine ganze Doppelseite. Ich würde sagen nur ein Drittel des Inhalts ist Text, der Rest Bilder. Also fangen wir mal uns mit diesem Hauptbestandteil des Buches auseinanderzusetzen. Ein Großteil sind Bilder vom Mars, nicht Bilder von den Raumsonden oder Diagramme. Bei den Bildern der Lander wurden passende Bilder zum Text gewählt. Im hinteren Drittel wo es um die Geschichte der Marsforschung geht und um das damals noch aktuelle Constellationprogramm vermisse ich das. Hier wurden Aufnahmen der Orbiter gewählt, die Beschriftung ist aber dürftig und da es auch keinen Begleittext gibt vermisse ich eine Erklärung was man da sieht. Unverständlich ist für mich, warum man nur Bilder die von den Sonden gemacht wurden genommen hat, aber keine von den Sonden - und sei es nur zur Illustration von Sachverhalten. So ist das Funktionsprinzip der HRSC mit einigen Abbildungen viel besser illustrierbar als durch viel Begleittext.

Das leitet über zum Text. Das Buch entfällt in die heute seltene Kategorie "Wissenschaftsjournalismus". Also kein Buch über die Raumsonden, sondern ein Busch, das die Mission erlebbar macht, inklusive Interviews mit Wissenschaftlern die an dem Projekt beteiligt sind und erklären, was sie sich von den Instrumenten erwarten und wie sie funktionieren. Das Potential solcher Bücher ist groß. Man kann für Forschung begeistern, einen Blick hinter die Kulissen werfen, der sonst nicht möglich ist. Diese Chance hat meiner Ansicht nach Lorenzen verschenkt, denn die PI's die er fragte erzählen in ihren eigenen Worten eben das was man auch im Web über ihre Instrumente lesen kann. Hintergrundinformationen, Probleme bei der Entwicklungsgeschichte oder eben einen Blick hinter die Kulissen gibt es kaum, allenfalls bei der HRSC wo deren Vorgeschichte aus der Mars-96 Kamera erzählt wird.

Was herauskam ist eine Beschreibung der Mission der Rover und in Einschränkungen auch von Mars Express während der ersten Monate am Mars. Es wird beschrieben, wonach sie suchen und auch eingeschränkt was gefunden wurde. Was es nicht ist ist ein buch über dir Raumsonden, obwohl es auch hier einiges zu schrieben gäbe. So erfährt nicht der Leser, das Mars Express nur die Hälfte seiner Solarpanels einsetzen kann und wie sich dies auf das Erprobungsprogramm auswirkt. Es ist auch kein Buch über den Mars, seine Geologie, Atmosphäre. Die Informationsdichte ist gering, aber wie schon geschrieben ist das Zielpublikum wohl auch nicht der Raumfahrtbegeisterte, sondern wohl eher der Laie, der vielleicht in den Nachrichten was über die Sonden gehört hat oder in dem buchladen das Buch mit den Bildern aufgeschlagen hat. Was mir recht gut gefällt, auch weil ich es in meinen eigenen Büchern tue ist dass der Autor auch selbst Stellung bezieht. Am deutlichsten ist dies in seiner berechtigten Kritik am Constellationprogramm, das mittlerweile ja auch eingestellt wurde.

Ich denke für dieses Publikum ist das Buch gut geschrieben, zumal es sich auch leicht und spannend liest. Es zeigt in positiver Weise, das es auch im Zeitalter des Internets einen Bedarf für Bücher gibt, denn es erklärt eben noch ausführlicher, und auf noch niedrigerem Niveau als die Webseiten von HRSC, DLR und JPL. Es bereitet die Mission, die Beschreibung der Instrumente und die Ergebnisse didaktisch in einzelne Kapitel auf, ohne den Leser zu überfordern. Wer mehr wissen will, kann dann tatsächlich das Internet benutzen und wird auf den Webseiten weitere Details und aktuellere Daten finden.

Mittwoch 4.7.2011: Die Cloud

Eines der "Buzz-Words" ist heute die Cloud. also auf gut Deutsch, anstatt dass ich Dokumente lokal abspeichere, lagere ich sie ins Web aus. Mit Terminen, Notizen oder anderen kleineren Informationen geht das ja schon lange. Viele laden auch ihre Bilder hoch zu Picassa oder anderen Diensten. Microsoft und Google arbeiten an Online Versionen von Officeprogrammen und Apple hat gerade einen neuen Dienst vorgestellt, der nun auch Musik in der Cloud speichert und diese als Nebeneffekt sogar legalisiert.

Der Vorteil ist es von überall hin auf die Daten zugreifen zu können. Nachdem nun ja es nun nicht mehr nur noch um Notebook und Computer geht, sondern nun ja (fast) jeder auch ein Webpad und ein Smartphone ein eigen nennen muss, wird es anders recht schwierig die Daten zu synchronisieren. Nun ist das erste "Chromebook" aufgetaucht - ein Netbook das unter Android läuft und bei dem die Anwendungen Dokumente nur online bearbeiten können, das also ohne Internetanbindung nutzlos ist.

Das ganze Thema ist en vogue, zumindest wenn ich die ct' lese oder "Neues" anschaue. Ich frage mich dann immer, ob der Rest der Welt oder ich irgend etwas falsch macht. Ich habe nicht so viele Termine dass ich überhaupt einen Terminplaner brauche. Ich zeige Bilder den Leuten direkt und kann dann mit ihnen über sie reden oder schnell durch den Bestand navigieren. Ich muss nicht überall an einem Dokument abreiten, wenn es komfortabel nur am PC geht. Ich muss auch nicht meine Wanderroute dokumentieren und online stellen. Alle anderen finden die Cloud toll. Aber selbst wenn ich den Datenschutzaspekt ausklammere, ist das heutige Internet nicht so besonders gut dazu geeignet. Jeder hat hierzulande eine asynchrone Datenleistung, also bei mir. z.B. 20 mbit downstream und 1 mbit/s upstream. Das reicht für die meisten auch aus, weil sie ja passiv surfen und wenig hochladen. Wenn das der Fall ist, ich z.B. den Mitschnitt des Chiemgau-Kometen Epos hochlade, dann dauert das bei 1 mbit/s schon mal ne Stunde. Es gibt zwar inzwischen Speicherplatz im Netz für umsonst, wie z.B. bei Google oder Microsoft Skydrive, aber mit 1 mbit/s die zu befüllen ist aufwendig. 3 Stunden um 1 GByte hochzuladen. Solange dieses Cloudkonzept sich auf einige Termine, Dokumente erstreckt ist das kein Problem, aber wenn man dann anfängt Bilder dort abzulegen, Musik, dann wirds ziemlich langsam und mit den heutigen Zugängen unkomfortabel.

Ich denke wenn sich das Konzept wirklich durchsetzen würde, das ja auch für Leute wie mich die nichts überall verfügbar haben wollen, aber vielleicht das ganze gerne als sicheres Backup nutzen wollen, dann muss sich was an unseren Internetzugängen ändern. Es gibt ja heute schon 100 mbit Zugänge. Das Problem ist, dass es im Web eigentlich kaum Server gibt die einem Benutzer die Datenrate zubilligen. Warum also nicht halbieren auf 50 Mbit, dafür gleich viel im Up/Downstream? Ähnliches könnte man auch bei langsameren Zugängen machen, noch besser wäre eine flexible Lösung die sich anpasst, also wenn viel hochgeladen wird, dem Upstream mehr Bandbreite zuordnet.

Sonst wird es nichts mit der Cloud. Wenn ich ISP wäre, würde ich meine Accesspoints mal daraufhin umrüsten, denn ich  denke das wird bald eine Nachfrage sein. Solange es nicht flexibel geht sind synchrone Zugänge also Downstream=Upstreamgeschwindigkeit wahrscheinlich die beste Lösung für die "Generation Cloud". Ich vermute auch wenn Microsoft das Thema entdeckt, dann wird es mal in Windows integriert. Bisher ist es ja eher umständlich. Ich muss im Browser Dateien hochladen, anstatt das ich im Explorer bei bestehender Internetverbindung das einfach per Drag & Drop lösen kann. Es geht natürlich über Zusatzprogramme auch so, aber das ist eben eine Hürde mehr.

Vielleicht werde ich ja auch zu alt. Ich habe mir am Sonntag "Lol" angesehen. Eigentlich wegen Sophie Marceau. Sophie Marceau hat eine Menge gedreht, aber mir ist sie in Erinnerung geblieben durch La Boum und La Boum 2, die aktuell waren, als ich noch etwas jünger war. Um die Probleme von Teenagern, in denen es sich bei La Boum drehte geht es auch in Lol. Nur spielt Sophie Marceau aber inzwischen die Mutter. Nicht schlecht, sie sieht immer noch toll aus, aber irgendwie muss ich mich an die Rolle gewöhnen.

Freitag 6.7.2011: Obamas Irrtum

Da stoppe ich über einige Statements von Obama. Es ist ja selten dass sich Politiker zur Raumfahrt äußern, noch seltener ist es dass sie es konkret tun. Nun hat das Obama getan. Er fordert, wenn ich das mal zusammenfassen soll:

Nun ja fangen wir mal an: Wenn das Shuttle so was tolles ist, warum mustert man es dann aus? Zudem ist es ja was anderes als Apollo und gilt das immer das gleiche tun dann nicht auch für das Shuttle? (Hand auf Herz: bei wie vielen Shuttlemissionen können sie sagen was da gerade genau gemacht wurde, Herr Obama?)

Punkt 2 behandelte ich am Schluss ausführlich

Ich weiß nicht, warum nun alle von einem Asteroiden reden. Asteroiden nützen bei der Marserkundung gar nichts. Eher machen noch Landungen auf dem Mond einen Sinn. Wegen der geringen Schwerkraft kann man nicht auf ihnen landen. Ein Schritt eines Astronauten führt zu Hopsern über die Oberfläche. Astronauten können auch nicht auf ihnen arbeiten und leichter erreichbar als der Mars sind sie auch nicht. Ehrlich gesagt sind Asteroiden prädestiniert für eine unbemannte Erkundung. Und besonders interessant sind sie verglichen mit Mond und Mars ja auch nicht.

Wenn die privaten nun den ganzen Erdorbit abdecken soll. Was macht dann JETZT die NASA? Nichts? Betreiben dann auch die privaten dann bald die ISS und bauen sie aus? Also das was gerade aktuell in der bemannten Raumfahrt ansteht macht die NASA nicht, und irgend etwas was noch nicht mal geplant ist wird sie irgendwann mal machen? Habe ich das so richtig verstanden? Oh, ich habs, Herr Obama hat meine Blogs gelesen und baut gerade die NASA so um, dass sie nur noch unbemannte Raumfahrt betreibt...

Zuletzt noch was zu technologischen Durchbrüchen. Das grundsätzliche Problem ist, dass jede neue Technologie erst mal riskant ist. Wenn sie eingeführt ist und die Kinderkrankheiten beseitigt sind, dann ist sie sicher einer alten Technologie überlegen, aber eben erst dann. Und wenn ich das hehre Ziel habe, Leute irgendwohin schneller zu bringen und was neues zu machen was gäbe es da? Nukleare Antriebe, Ionenantriebe? Ein kleines bemanntes Shuttle (es darf ja nichts Apollo-like sein)? Also so ziemlich alles was mir da einfällt beinhaltet große Risiken. Nukleare Antriebe wurden noch im Weltraum getestet und was passiert bei einem Strahlenleck? Ionenantriebe funktionieren im kleinen, aber nicht in der Dimension für ein bemanntes Raumschiff (so Faktor 100 mal größer) und bei jedem Start in den Weltraum stellt sich immer die Frage - was passiert bei einem Fehlstart oder wie sicher ist das Gefährt wenn beim Wiedereintritt was schief geht.

Meiner Meinung nach schließen sich wegen dem Sicherheitsaspekt bemannte Raumfahrt und schnelle Durchbrüche in Technologien aus. Stattdessen wird auf Nummer Sicher gegangen, Dinge eingesetzt die schon unbemannt getestet wurden oder Stand der Technik sind etc. Und das ist ja nicht nur bei uns so, sondern auch bei den Russen oder salbet bei den unbemannten Transportern, damit da ja nichts passiert. Ich meine das ist ja nicht nur in der Raumfahrt so. Man schaue sich nur die Automobilindustrie an. Was gibt es da an tollen Technologien für das <1 l Auto? Gasturbine mit Schwungrad um Bremsenergie zu speichern und für höhere Brennstoffeffizienz, richtig stromlinienförmige Gehäuse, Leichtmetall- oder Kunststoffkarosserie um das Gewicht zu senken. Alles schon vor Jahrzehnten in Experimentalfahrzeugen gesehen. Was findet sich im Serienfahrzeug wieder?

Wenn es um technologische Durchbrüche gibt: Das war das Space Shuttle. Es erfüllt genau die Anforderungen von Obama. Es ist nicht das gleiche wir zur Apollo-Ära. Außer den USA habet keiner ein solches High-Tech Gefährt. Es ist progressiv und man kommt damit schneller in den Orbit - mit vier Shuttles konnten die USA bis zu zwölf Flüge pro Jahr durchführen. (Bedingt durch die ansteigenden Kosten für die Bodenmannschaften sind es in der Regel weniger). Aber es erreicht nur einen niedrigen Erdorbit, und der ist ja nun für die Privaten reserviert.

Das Grundproblem hat aber Obama nicht angesprochen. Kann die NASA es heute nicht mehr schnell und effizient machen? Nun unweigerlich hat die NASA heute viel mehr bürokratischen Oberbau. aber das Hauptproblem ist doch, dass man heute von ihr verlangt alles durchzuführen, ohne das die Mittel effektiv steigen. Deswegen dauert es so lange, deswegen ist Constellation gescheitert. Würde man sagen wie zur Apollo Ära: Okay, wir wollen in 8 Jahren zum Mond und steigern entsprechend den NASA Etat rasch an, dann bin ich überzeugt würden wir auch in 10 Jahren zum Mars fliegen. Und hier ist nicht die NASA, sondern die Politiker gefragt. Doch die denken mehr darüber das ihre Heimatbundesstaaten möglichst viele Jobs erhalten, auch wenn das heißt Programme am leben zu halten die keinen Sinn mehr machen.

Was in den letzten Jahren passierte, ist eine Demontage der NASA. Praktisch alle wichtigen Entscheidungen werden über die Raumfahrtagentur gefällt. Also erst mal soll sie zum Mond fliegen - ohne dass sie das Geld dafür bekommt. Dann soll sie die Shuttles ausmustern, gerade wo die NASA über Aufrüstoptionen für den Betrieb bis 2025 nachdachte und nun wird das Constellationprogramm, nachdem es ohne Geld nicht in die Füße kam, eingestellt, die NASA musste die Beförderung in den Erdorbit den Privaten überlassen und soll nun nur noch Technologieforschung betreiben.

Wozu brauchen die USA noch die NASA? Ja die Frage kann man ernsthaft stellen. Die Agentur wurde gegründet um die Raumfahrt aus den Klauen des Militärs zu reißen und alles zu koordinieren und Doppelentwicklungen zu vermeiden. Heute gibt es eine Raumfahrtindustrie, eigene Forschungszentren der NASA. Wenn es nun nur noch um Technologieforschung geht dann könnten die NASA Zentren diese natürlich auch ohne großen bürokratischen Überbau durchführen und die unbemannten Satelliten werden ja eh von der Industrie im Auftrag gebaut und die Instrumente stammen von Universitätsinstituten. ein kleiner Koordinierungsausschuss würde genügen, der über die Verteilung von Forschungsgeldern für einzelne unbemannte Projekte entscheidet.

Die NASA auflösen - genau das ist es nicht in den selben Kreisen sich zu drehen und nur noch Technologieforschung zu betreiben. Ob das Obama will?


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99