Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 399: 13.9.2014 - 25.9.2014

13.9.204: Ein paar Dinge

.. die alle keinen ganzen Blog ergeben. Dangen wir mit Nachlesen bei der Raumfahrt an. SpaceX hat mal wieder einen Start geschafft, das ist nun nichts besonderes. Interessant ist aber das die Firma offenbar bisher immer massive Rabatte gegeben hat. Asisat hat für zwei Starts nur 104 Millionen Dollar gezahlt, also 52 pro Start, deutlich weniger als die Firma selbst angibt. SES das weiß man, hat ebenfalls sehr billig den Start bekommen ("well under 60 Million") und Orbcomm zahlt sogar nur 42 Millionen für zwei Starts.

So sollte man meinen, die Firma müsste doch Aufträge wie nichts an Land ziehen, zumal nun ja die Starts laufen, alle Nutzlasten ihren Orbit erreichten und man das Launchmanifest abarbeiten kann - seit 2010 wird die Falcon 9 ja angeboten, doch kommerziell eingesetzt wird sie erst seit letzten Dezember. Doch dieses Jahr hat sie nur einen neuen Auftrag an Land gezogen, am 10.1. den Start von JCSAT 14. Arianespace konnte letzte Woche dagegen den Start von 6 Satelliten vermelden - netterweise alle in der Gewichtsklasse die SpaceX transportieren kann, also unter 3,5 t (die 4,85 t sind für eine 28 Grad Bahn, wenn man die gleiche Bahn wie Ariane 5 nimmt sind es nur noch 3,5 t). Darunter übrigens den Schwestersatelliten JCSAT 15.

60 erfolgreiche Starts in Folge sind eben noch immer ein Argument, nicht nur der Preis.

Dann habe ich durch Zufall erfahren, das Alexander Gerst aus Baden-Württemberg kommt. Da ich mich nicht sehr für Astronauten interessiere, entging mir das bisher. Und dann schaute ich mal nach und siehe da - Reinhard Furrer, Ulf Merbold arbeiteten vor ihrer Astronautentätigkeit in BW, Ernst Messerschmid, Hans Schlegel, Gerhard Thiele, Alexander Gerst sind hier geboren. Das ist bei 11 Astronauten doch überdurchschnittlich.

Dann gibt es schon wieder eine Preissenkung bei BOD, nun soll eine neue Drucktechnik die Kosten deutlich senken. Ein Besuch beim Preiskalkulator zeigt das bei gleicher Marge der Preis um 30% niedriger ist. Der Verlag hatte schon vor einigen Monaten erst die Jahresgebühren abgeschafft und dann die E-Book Vergütung auf 70% angehoben - den gleichen Prozentsatz wie beim Amazons Kindle Direct Publishing. Ich vermute das ist eine Reaktion auf Createspace. Bei 25% Marge, das ist das was ich üblicherweise ansetze, ist der Unterschied ziemlich zusammengeschrumpft. Bei einem 300 Seiten Buch sind es nun noch 4,20 Euro (Amazon) bzw. 3,54 Euro (BOD) Marge. Also nicht mehr der enorm große Unterschied den es vorher gab. Lediglich bei Großformaten bleibt eine größere Differenz, denn die kosten bei Amazon gleich viel, bei BOD mehr als Taschenbücher. Trotzdem ist es ein Punkt mehr, der für BOD spricht. Gegen Amazon fehlt die Anbindung an den Buchhandel und mittlerweile wird mir das auch zu bürokratisch. So musste ich in den letzten Wochen zweimal US-Steuerformulare ausfüllen (für KDP und Createspace - dabei sind es beides Services von Amazon und ich bin immer noch eine Person) obwohl ich noch nie ein Buch in den USA verkauft habe, nur weil die Firma dort ansässig ist.

Sehr merkwürdig ist aber, dass eine billigere Drucktechnik, die BOD als Grund nennt, nicht dann auch die Margen der schon existierenden Bücher ändert. Trotzdem gut ist es denn es ermöglicht es die Bücher nun näher zu dem Preis zu verkaufen die mit Verlagen möglich sind. Ich denke an Neuauflagen von einigen Büchern, aber nicht allen. Denn wer mich kennt weis: eine Neuauflage soll auch neues enthalten.

Geplant ist eine Neuauflage der europäischen Trägerraketen 2 (nach Dezember, wenn nach der ESA-Ministerratskonferenz vielleicht mehr feststeht, ob die Ariane 6 kommt und wenn ja in welcher Konfiguration). Auch die Computergeschichten will ich neu auflegen - erweitert um ein Kapitel über Seymour Cray. Er passt zwar nicht von den Produkten, zu den anderen Computerpionieren, aber von der Zeit und so viele Computerpioniere die ihre eigene Firma aufmachten und damit Standards setzen gibt es ja auch nicht. Auch sollte ich es nochmal durchlesen. Bei der Erstauflage hatte ich ja ziemliches Pech mit den Lektoren, zwei fingen es an, und brachen in der Mitte ab. Der dritte las es in Rekordzeit durch, fand aber wohl nicht alle Fehler. Dann natürlich noch Band 2 des Raketenlexikons und wenn George Lemaitre verglüht ist auch ein abschließendes über die ATV. Danach gehe ich vielleicht die anderen an, doch derzeit habe ich schon mit den derzeitigen genug zu tun. Ich komme bei keinem so richtig voran, weil ich zu viele in der Mache habe. Dazu kommen noch etliche Webseiten an denen ich auch noch was machen sollte oder die ich angefangen habe. Wie immer - viel Arbeit, wenig Zeit.

14.9.2014: Geschlossene und offene Architekturen

Ich will mich heute mal mit einem Thema beschäftigen, das ich von den Computern kenne, aber das man bei vielen Produkten findet - dem Gegensatz der offenen und geschlossenen Architektur. Eine offene Architektur bedeutet, dass ich von einem Produkt möglichst viel offenlege. Das können sehr unterschiedliche Schritte sein. Ich kann in der Tat wichtige Dinge veröffentlichen und dokumentieren. Bei einem Computer z.b. Schaltpläne oder kommentiere Listings der Systemsoftware. Es kann auch nur sein, dass ich mich allgemeiner Standards bediene, anstatt was eigenes zu entwickeln. Klarer abzugrenzen ist meistens das Gegenteil: eine geschlossene Architektur soll es einem Mitbewerber erschweren, das Produkt nachzubauen oder auch nur an dem Produkt zu partizipieren. Das geschieht primär durch Rechtsschutz. Das bedeutet, wenn ich etwas erfunden habe, sei es auch noch so unbedeutend, so patentiere ich dies. Damit darf es ein Konkurrent nicht einsetzen oder wenn er es möchte, kann ich durch Lizenzen verdienen. Ich kann auch das Aussehen (Design) und die Marke schützen (Symbole, Markenschutz, Logos). Das ist vor allem wichtig, wenn das Produkt selbst vom Anwender gar nicht wahrgenommen wird oder nur ein Bauteil ist. Das bekannteste Beispiel ist das Intel ab der fünften Generation seiner x86 Prozessoren diesen Namen gab, weil die vorher benutzte Nummer nicht schützenswert war. Die meisten Anwender kaufen aber keine Prozessoren und wissen nicht mal wie einer aussieht, sondern fertige Computer.

Wenn ich kein technisch anspruchsvolles Produkt habe, das man leicht nachbauen kann und in dem man wenig patentieren kann, kann ich versuchen durch eigene Standards mich abzusetzen. Das können eigene Schnittstellen sein. Ich kann mich noch daran erinnern, das vor einigen Jahren so ziemlich jedes Handy einen eigenen USB-Anschluss hatte. Der Anschluss an den Computer war überall gleich, doch das Kabel zum Handy hatte jeweils eine etwas andere Mikro-USB Buchse. Auch bei Netzteilen gibt es etliche Spezialanschlüsse die alle nicht auf ein anderes Gerät passen. So verdient man am Zubehör (Kabel, Netzteil) Man kann Teile eingießen oder Gehäuse so gestalten, dass man es nicht zerstörungsfrei öffnen kann. Damit kann man zumindest den Reperaturmarkt verkleinern. Doch das geht mehr in Richtung Obsoleszenz. Eigene Anschlüsse bedeuten, das Hersteller die Zubehör fertigen wollen, zig verschiedene Versionen für unterschiedliche Hersteller oder sogar verschiedene Modelle eines Herstellers fertigen müssen. Das treibt seltsame Blüten. So habe ich zwei nicht mehr benutzbare Kärcher-Hochdruckreiniger und einen noch in Benutzung stehenden ALDI Hochdruckreiniger. Bei den Kärchern gingen Pistole oder Hochdruckschlauch kaputt. Obwohl der ALDI Reiniger auch von Kärcher gefertigt wird, passen Schlauch und Pistole nicht auf den Kärcher und da es zwei unterschiedliche Modelle sind kann man auch nicht die noch benutzbare Pistole mit dem noch benutzten Hochdruckschlauch des zweiten Modells kombinieren.

Je leichter nachbaubar ein Gerät ist und je umkämpfter der Markt, desto größerer Aufwand wird oft für geschlossene Architekturen gemacht. Seit bei Tintenstrahldruckern wurde der Preiskampf so stark, das Hersteller begannen ihre Drucker nicht kostendeckend auf den Markt zu bringen. Stattdessen sollte der Kunde die Tinte teuer bezahlen. Das Konzept ist nicht neu: schon Rockefeller verschenkte Öllampen, und verkaufte das Petroleum, das man zur Befüllung brauchte. Dann muss man aber dafür sogen, das Fremdanbieter, die bei ihrer Tinte nicht auch noch das Gerät finanzieren müssen, diese nicht billiger anbieten. Das ging dadurch, dass man Patronen schützte, was dann dazu führte das das Innenleben unnötig komplex war und man dieses patentierte. Oder man verhindert durch Hardware die Benutzung anderer Patronen (ID-Chips oder sogar Seitenzähler in Chips, damit man auch die Originalpatronen nicht nachbefüllen kann).

Nach dieser allgemeinen Erklärung nun noch speziell auf den Computermarkt. Von der Logik her wären offene Architekturen für Alle ideal. Offene Architekturen erlauben Konkurrenz und daher niedrige Preise, sie sind zugleich offene Standards und erlauben so selbst, wenn es nur einen Hersteller gibt, das viele andere Firmen Zubehöre oder Software herstellen können und so der Anwender einen höheren Nutzen hat. Das wiederum bedeutet mehr verkaufte Geräte weil der Computer für mehr potentielle Kunden nützlich ist und nützt so dem Hersteller.  Aus Eigennutz findet man häufig geschlossene Architekturen. Die Tendenz zu geschlossenen Architekturen ist um so ausgeprägter je größer die Marktmacht einer Fima ist. Ein Newcomer ist eher bereit eine offene Architektur einzugehen. Das hängt prinzipiell am Markt nicht an der Firma. So hatte IBM Ende der Siebziger bei den Großrechnern die Marktführung mit über 50% Marktanteil und betrieb geschlossene Architekturen um Nachbauten (wie von Amdahl) zu erschweren. Als die Firma dagegen in dem Markt der Heimcomputer Fuss fassen wollte, war ihr Produkt, der IBM PC ein Vertreter der offenen Architektur, denn hier war sie hier neu.

Die meisten Firmen erkennen nicht die Vorteile einer offenen Architektur. Auch dafür will ich zwei Beispiele anführen. Der allererste PC war der Altair 8800. Sein Bus mit 100 Pins wurde, weil er der erste PC war, ein Standard. Dabei hatte Ed Roberts als Erfinder gar nicht vor einen Standard zu setzen. Er nahm einfach Stecker mit 100 Pins weil diese am preisgünstigsten waren. 14 Pins waren nicht mal belegt. Der Rechner wurde als Bausatz verkauft und entsprechend dokumentiert. Das ermöglichte es anderen Firmen Steckkarten dafür anzubieten und später gab es auch Nachbauten des Computers, z.b. von IMSAI. Roberts sah die Hersteller von Zusatzkarten und erst recht die Nachbauten als "Schmarotzer" und "Parasiten". Konsequenterweise blieb die Firma einem Normierungsgremium fern, denn manche Hersteller hatten eine andere Pinbelegung oder nutzen die unbelegten 14 Pins. Der Altair 8800 wäre aber nicht so erfolgreich geworden hätte es diese Parasiten und Schmarotzer nicht gegeben. So konnte MITS, der Hersteller lange Zeit keine funktionierenden Speichererweiterungen produzieren. Die in einer Garage gegründete Firma "Processor Technologies" entwickelte innerhalb kürzester Zeit eine Karte und behob so den Mangel. MITS hatte auch so genug Probleme überhaupt die Bestellungen abzuarbeiten.

Beim Apple 2 hatten Steve Jobs und Macula dagegen alles richtig gemacht: sie wollten einen Computer, den man nicht einfach kopieren kann, Dazu meldeten sie für einige Hardwaredetails Patente an. Legal gab es auch nur einen Lizenznachbau den ITT 2020. Das hielt Firmen, vor allem in Taiwan, die mit dem Festlandschina wohl teilen, das sie so etwas wie Urheberrecht nicht kennen, nicht davon ab Clones zu bauen. Der Rest des Rechners war jedoch offen: Der Computer enthielt acht Steckplätze, deren Belegung wurde offengelegt, ebenso das System wie das Betriebssystem Software auf Karten auf diesen Plätzen ansprach. Die Anschlüsse waren soweit es ging Industriestandards entnommen, z.B. war de Druckerport ein Centronics Stecker. Commodore setzte zur gleichen Zeit z.b. nur firmeneigene Buse ein. Als folge gab es für den Apple II enorm viele Zusatzkarten, viel mehr als die Firma selbst entwickeln konnte. Viele erweiterten die Fähigkeiten des Rechners enorm. Man konnte so die Ausgabe von 40 auf 80 Zeichen erweitern (Vorrausetzung für Textverarbeitung), man konnte den Speicher erweitern und sogar den Prozessor um einen Z80 erweitern und aus dem Rechner einen CP/M Rechner machen. 1980 machte Microsoft mehr Umsatz mit einer Z80 Karte für den Apple II als mit der Software die sie als Kerngeschäft herstellte.

Erstaunlicherweise hat Steve Jobs nicht den Vorteil erkannt, denn der nächste Rechner von Apple, der Mac war ein Paradebeispiel für eine geschlossene Architektur. Nicht nur war er nicht in dem Maße dokumentiert. Er war auch geschützt und verwendete nur firmeninterne Standards. Damit aber niemand auch nicht durch Reengineering daran profitieren konnte (darunter versteht man das Untersuchen eines Gerätes und Feststellen der Funktion einzelner Bestandteile, wenn es nicht dokumentiert ist) gab es nichts zu erweitern - es gab keine Steckplätze, nur vier Anschlüsse allesamt mit proprietären Anschlüssen für Drucker, Modem, Floppy Keyboard und Maus. um Geld zu sparen verwandten sie zwar die 9-poligen Stecker wie sie damals für serielle Schnittstellen üblich waren, die Protokolle für en Datenaustausch waren aber selbst programmiert und eine andere Maus konnte so z.B. nicht angeschlossen werden.

Der Mac wurde zum Fiasko, nicht nur wegen der geschlossenen Architektur, sondern auch weil er relativ teuer war. Aber auch wegen der geschlossenen Architektur - es gab kein Zubehör für den Rechner, mangels Steckplätze konnte man ihn auch kaum erweitern. Es gab auch kaum Software, (um für einen Mac zu programmieren, musste man eine viermal teurere LISA erwerben) was die Chancen auf dem Markt noch weiter einschränkte. Bis heute ist Apple der geschlossenen Architektur treu geblieben, ein Apple Nutzer ist in einer geschlossenen Apple Welt gefangen - Music und Bücher gibt es von iTunes, Anwendungen für bestimmte Geräte nur vom Appstore. Letztes wurde von anderen Herstellern wie Google oder Microsoft sogar kopiert. Offen isst Apple eigentlich nur wenn es dazu dient den Marktanteil zu erhöhen, so kann man Windows auf einem Apple Mac installieren - wenn er gekauft ist dann ja schon mit Betriebssystem, mehr gibt es also am Gerät nicht mehr zu verdienen, dagegen steigt der Nutzen für den Käufer.

Wie Apple zeigt hat Markterfolg auch prinzipiell nichts mit offener/geschlossener Architektur zu tun, denn die Firma ist trotz dieses Kurses erfolgreich, weil die Produkte offensichtlich den Publikumsgeschmack treffen. Auf der anderen Seite war Brother der Hersteller von Tintenstrahldruckern der am längsten an "kopierbaren" Patronen festhielt - trotzdem hat das den Marktanteil von Brother nicht erhöht, weil die Druckqualität den Marktführern nachhinkte.

18.9.2014: Eine absehbare Entscheidung...

... war die Verkündigung der "Gewinner" der CCdev Ausschreibung. Schlicht und einfach weil Boeing und SpaceX schon vorher die meisten Mittel bekommen haben. Eine Überraschung wäre es eher geworden wenn Sierra Nevada einen Auftrag bekommen hätte oder sich die NASA nur für einen entschieden hätte. nun sind es eben zwei Kapseln. Das klingt zwar nicht gerade technologisch modern, verglichen mit dem Raumgleiter von Sierra Nevada, aber es geht ja um "Space-Taxis" und nicht um technologische Durchbrüche, sondern einige Leute sicher zur ISS zu bringen und wieder zurück und mehr nicht. Wenn dann noch die Kapseln wiederverwendet werden können und das soll ja bei beiden Systemen der Fall sein, hat ein Gleiter sicher auch keine Kostenvorteile.

Das es zwei Unternehmen sind, das war nach den bisherigen Runden auch klar. Ich habe ja schon geschrieben, dass ich das nicht für sinnvoll halte, einfach weil es zu wenig Flüge gibt. Wenn man die Argumentation bringt, das Konkurrenz es billiger macht, dann frage ich mich warum man das nicht in anderen Raumfahrtprojekten auch so macht z.B. bei Wetter oder GPS Satelliten oder auch anderen Projekten vor allem im Militär, wo man ja auch von einem Anbieter abhängig ist - die USA leisten sich ja auch nicht mehrere Produzenten von Kampfpanzer und mehrere Hersteller von Truppentransportern etc.

Irgendwie scheine ich auch nicht die Bedeutung mitzubekommen "Today's announcement sets the stage for what promises to be the most ambitious and exciting chapter in the history of NASA and human spaceflight," said NASA Administrator Charles Bolden.  Also das ambitionierteste und aufregendste Kapitel in der Geschichte der NASA und der bemannten Raumfahrt? Also da fielen mir sicher andere Dinge ein. Aber Boulden meint ja auch in der "großartigsten" Nation zu leben. Ich möchte dort nicht leben. So großartig finde ich die USA nicht.

Zudem scheint er irgendwie an einen Geldregen zu glauben. Bis 2017 sollen die Jungfernflüge stattfinden, dafür braucht die NASA 6,8 Milliarden Dollar. Bisher hat sie in vier Jahren gerade mal 2 Milliarden bekommen, eine Milliarde weniger als sie haben wollte. Warum sollte sich daran was ändern? Selbst wenn das Geld fließt, so glaube ich angesichts der bisherigen Verzögerungen nicht dran, dass es in drei Jahren soweit ist.

Interessant wird eher sein wie sich das für den ISS-Betrieb auswirkt. Da Russland ja auch seine Sojus modernisiert und bestimmt nicht auf Starts verzichtet wird bei 7 Astronauten pro Taxi die Besatzung auf 10 erhöht werden. Dazu braucht man vielleicht einige Installationen (eigene Wohnmodule gibt es ja keine, aber Racks mit Schlafkabinen kann man noch hochschicken) vor allem aber auch erheblich mehr Versorgungsgüter. Eine Planung dafür gibt es nicht, zumal nun ja das ATV wegfällt und damit 7 t Fracht pro Jahr von den USA transportiert werden müssen. Dann braucht man mehr Geld für die Versorgung. Pro Sitz wird der Transport zwar billiger sein, doch da man sieben anstatt einen bis zwei Astronauten pro Flug startet, wird auch der Transport absolut teurer.

Von den 6,8 Milliarden bekommt SpaceX 2,6 und Boeing 4,2. Das ist das was die Unternehmen haben wollten. SpaceX bekam durch das COTS Programm ja schon 500 Millionen Dollar, die man zu den Mitteln als Vorentwicklungskosten hinzuzählen kann. Zudem sammeln sie mit jedem CRS Flug Erfahrungen die sie in die Entwicklung einbringen können. Klar das sie so billiger sind. Sie werden aber auch billiger sein wollen, denn es könnte ja sein, das man bei zwei gleich teuren Kapseln sich dann doch nur für eine Kapsel und einen Gleiter entscheidet und da hat Boeing durch seine jahrzehntellange Erfahrung die besseren Karten. Wenn man dann im Geschäft ist kann man die Preise erhöhen, so zahlt die USAF für den Start von DSCOVR 96 Millionen Dollar, deutlich mehr als die "Internetpreise".

Wie teuer es am Ende wird wird sich zeigen, wenn es weiter solche Verzögerungen gibt dann wird es eher noch teurer. Eventuell hat auch der Kongress eine andere Meinung und will nur einen Anbieter, angesichts dessen, dass er bisher nie das Geld bewilligt hat das die NASA wollte kann das durchaus sein. Die Frage ist dann auch wie die Beförderung verläuft. Beauftragt die NASA beide Anbieter oder nur den billigeren? 2017 wissen wir mehr.

24.9.2014: Es läuft schief...

... und zwar an vielen Stellen in der Raumfahrt. Wir dürfen uns freuen, dass MAVEN und MOM gut im Marsorbit angekommen sind, so sollte das nicht hinwegtäuschen, das dies auch die letzte US-Mission seit langem ist, und das auch nur, weil man sie schon frühzeitig verschieben musste um für Curiosity Mittel frei zubekommen um deren Mission von 2009 auf 2011 zu verschieben. Indien hat nun aber zumindest beim Mars China und Japan überholt.

In den USA gibt es dank Haushaltsgesetze eingefrorenes NASA-Budget, aber nur das Gesamtbudget ist eingefroren. Beim niedrigsten Budget seit es die NASA gibt (bezogen auf den Gesamthaushalt) leistet man sich nicht ein, nicht zwei, nein drei bemannte Raumschiffe. Space Shuttle, Apollo und Gemini sind ein Dreck dagegen. Da gab es jeweils nur einen Typ. Doch es bleiben Zweifel. Zum einen scheint man irgendwie das Rechnen vergessen zu haben. 2017 soll ja der erste Flug erfolgen, doch bis 2019 gibt es nur knapp die Hälfte der Mittel. "That budget proposal requested $848.3 million for commercial crew in 2015, and a total of nearly $3.42 billion for the program from 2015 through 2019."  Wohlgemerkt, das ist das was die NASA haben will, nicht das was sie bekommt, denn das war bisher immer weniger als haben wollte und zwar deutlich weniger. Aus dieser Warte ist es unverständlich warum man zwei Anbieter wählte.

Nun ja wir brauchen ja ein Reservesystem, es könnte ja mal das System gegrounded sein. Soweit ist es schon, dass das ernsthaft als Argument vorgebracht wird. Was passiert, wenn das US-System gegrounded ist? Dann gibt es ja noch das dritte System, die Orion, nur darf die ja nicht an die ISS ankoppeln, aber vielleicht in dieser Notsituation wo man einige Astronauten ganz schnell abholen muss. Oder es gibt noch die russische Sojus, die Russen bringen ja noch so was hochkomplexes und selbststabilisierenden Rotationskörper hin. Die Amerikaner scheinen dafür zu dumm, zu vorsichtig oder zu sehr Warmduscher zu sein. Ich bin mal gespannt auf das Backupsystem bei der Marslandung....

Wird es denn danach wenigstens billiger? Nein, denn die NASA hat wieder mal schlau gerechnet. Denn damit das Programm billig wird, zahlt man viel für die Sitzplätze: 70,7 Millionen pro Sitzplatz und Astronaut. Das macht bei 12 Starts von je 4 Astronauten in diesem Zeitraum weitere 3,4 Milliarden, die natürlich in einem anderen Budgetposten auftauchen. Da ist die Sojus recht preiswert, da kostet ein Sitz zwar genauso viel, aber es werden eben weniger Astronauten befördert. Sso kostet ein Jahr nur 424 anstatt 848 Millionen Dollar. So kommt man mit 3,5 Milliarden für CCDev und 3,4 Milliarden für Flüge auf die geforderten 6,9 Millairden.

Aber gegenüber Orion ist es ja noch billig. Das wird zusammen mit der Orion bis 2021 weitere 22 Milliarden kosten. 22 Milliarden für ein Raumfahrtgerät, das nach Boulden so ausgelegt wird, dass es nicht an die ISS ankoppeln kann, damit es kein Backup für die kommerziellen Systeme ist. Das nur 21 Tage im All bleiben kann. Hmm was gibt es für Ziele die man in 21 Tagen erreichen kann, außer der ISS? Der Mond vielleicht, nur landen kann man nicht. Altair wurde ja schon vor Jahren gestrichen. Höhere Erdorbits, aber da gibt es schon genügend Bilder von Wettersatelliten die die ganze Erde zeigen. also irgendwie ziemlich überflüssig.

Das ist ja nicht der einzige Posten. Derzeit läuft die Ausschreibung für CRS Runde 2. Nachdem CRS 1 von 2012 bis 2016 rund 8 t pro Jahr liefert, geht man bei CRS 2, weil nun die ATV wegfallen, von 15,5 bis 21 t Fracht pro Jahraus. Das ist also mindestens doppelt so teuer, CRS 1 kostet schon 3,5 Milliarden, das sind dann mindestens weitere 1,7 Milliarden nur für Transport Services. Bei den Frachtmengen und der Art wie derzeit in der bemannten Raumfahrt das Geld zum Fenster rausgeworfen wird, muss man sich nicht wundern wenn man nächstes Jahr das Shuttle neu baut - mit kleinen Kapseln die 2 t pro Flug transportieren wird der Transport von rund 20 t Fracht sehr aufwendig. 2 Shuttleflüge könnten das auch leisten...

Addiert man alle Zahlen zusammen, schlägt noch die 3,2 Milliarden für die ISS selbst drauf, dann bleibt vom NASA Budget nicht mehr viel für unbemannte Raumfahrt übrig. Die hat ja schon zu leiden gehabt. Unter G.W. Bush wurde sie zugunsten des Constellation Programms zusammengestrichen, das gibt es bei Obama immer noch nur kommen nun auch noch die kommerziellen Services hinzu. Inzwischen kann man sich nicht mal mehr die Marsmissionen oder internationale Projekte leisten, außer vielleicht dem Vorzeigeprojekt Webb Space Teleskope.

In Europa sieht es auch nicht besser aus. Derzeit wird gerade ein Konsens bei der Ariane 5/6 gesucht. Die Positionen sind eigentlich seit Jahren unverändert: Deutschland will die Ariane 5 ME und Frankreich die Ariane 6. Wie die aussieht weiß keiner, denn die Ausschreibung der ESA ist eigentlich nur Makulatur. Sie wurde sie verändert, weil Satellitenbetreiber sie für zu klein halten. und man braucht ja auch für Deutschland eine Aufgabe, denn bei der vorherigen Konzeption waren das nur noch einige Strukturen in der Oberstufe und Stufenadapter. Nun soll es eine Zentralstufe mit Vulcain, eine Oberstufe mit Vinci und zwei oder vier Booster mit 120 t Treibstoff werden. Die letztere transportiert dann 11 t in den GTO.

Ich hab da nur eins nicht verstanden also vier Booster mit je 120 t Treibstoff ersetzen dann zwei Booster mit 241 t Treibstoff, dann gibt es eine Zentralstufe mit Vulcain, also so was wie die EPC und eine Oberstufe mit Vinci, also so was wie die ESC-B. Bin ich blöd oder hat man da nur zwei Booster gegen vier kleinere ausgetauscht? Die Nutzlast der Version mit vier Boostern liegt ja dann auch fast gleichauf mit der Ariane 5 ME. Das soll Milliarden kosten und noch merkwürdiger dann viel im Betrieb billiger als die heutige Ariane 5 sein? Ich dachte immer die Booster wären das billigste an der Rakete. Und als Krönung kann man die neue (alte) Ariane 5 die nun Ariane 6 heißt nicht mehr von ELA 3 starten, sondern braucht ein neues Launchpad. Dafür soll sie schneller zur Verfügung stehen und man braucht nach Frankreichs Ansicht keine Ariane 5 ME mehr.

Was sich auch schon angedeutet hat, ist das Frankreich, Italien und Spanien nach der Kürzung der Mittel beim letzten ESA Konzil nun ganz aus der ISS aussteigen. Deutschland hat damals zugelegt will nun aber auch nicht mehr bezahlen. Ein Schelm wer diese Entscheidung davon abhängig macht, das der einzige deutsche Astronaut im ESA Korps seinen Flug ja nun hinter sich hat und da ein Aufenthalt nur alle 2 Jahre möglich ist, müsste man sonst 10 Jahre warten und finanzieren. Damit fehlt ab 2020 ein Partner bei der ISS. Die rund 1-1,2 Milliarden, die die ISS pro Dreijahreszeitraum für die ESA kostete kann man nun besser verwenden. Nach Frankreichs Vorstellungen für die Ariane 6, ich würde eher so was wie Rosetta sehen, die nicht mal diese Summe gekostet hat, aber Wissenschaft hat in der ESA genauso wenig Gewicht wie bei de NASA.

Es läuft eben einiges schief....

25.9.2013: Was CCdev nicht ist

.. ist eine Absicherung für den Fall das eines der beiden Systeme "gegrounded" ist. Schon der Gedanke ist verrückt. Nun ist Redundanz ja was schönes. Aber auch sonst haben wir in der Raumfahrt nur wenig Redundanz. Es wurden zwar früher Sonden in Paaren oder sogar kleinen Serien gestartet, was aber kein Schutz vor systematischen Fehlern bedeutet. Ich verweise hier nur mal an Mars 4-7 und das Ranger Programm. Echte Redundanz würde bedeuten, dass man zwei unterschiedliche Sonden startet. Ich habe mal nachgedacht, wo es in der Raumfahrt Redundanz in diesem Sinne gibt und es gibt tatsächlich welche:

Was würde passieren, wenn eines der beiden neuen Versorgungssysteme für die ISS tatsächlich für eine längere Zeit ausfallen würde? Nun es gäbe in jedem Falle noch die Sojus Kapsel. Diese ist seit fast 60 Jahren im Einsatz und erprobt. Russland setzt sie seit Jahrzehnten ein, ohne ein zweites redundantes System einzusetzen. Selbst wenn wir unterstellen, dass die Kapsel nicht von der ISS abkoppeln könnte, so könnte die Besatzung immer noch in einer Sojus zur Erde zurückkehren. De facto gibt es in der ISS aber auch sonst keine Redundanz. Weder bei dem Lebenserhaltungssystem noch bei den Modulen. Warum also legt man so viel Wert auf zwei unterschiedliche Systeme?

Vor allem verwundert dies, da beide Systeme einfache Kapseln sind. Die Technologie einer Kapsel ist nun nicht gerade neu. Die Mercury und Wostok Raumschiffe flogen schon Anfang der sechziger Jahre. Bedenkt man in welchem Maße sich die Raumfahrt seitdem weiterentwickelt hat so erscheint dies anachronistisch. Was muss ein Raumschiff leisten, das nur zu ISS fliegt?

Zum einen genügt eine einfache Kapsel die als sich selbst stabilisierender Auftrittskörper ausgelegt sein sollte. Das ist sowohl gegeben für die kegelförmigen Kapseln von Boeing und SpaceX . Eine solche Kapsel wird alleine durch die aerodynamischen Kräfte so ausgerichtet, dass der Hitzeschutzschild in die Flugrichtung zeigt. Hitzeschutzschilde sind nun auch nicht gerade neues. Ablative Schilde gibt es schon seit den fünfziger Jahren. Eine druckdichte Kapsel zu bauen, ist nicht schwieriger als ein druckdichten U-Boot-Körper zu bauen. Für die wenigen Stunden, die eine Kapsel braucht, um zur ISS zu gelangen, reicht zur Aufbereitung der Luft ein Kohlendioxydfilter. Druckgas hält den Innendruck aufrecht. Raumanzüge würden die Besatzung schützen, wenn es ein Leck oder ein nicht geschlossenes Ventil gibt. Dass ein Raumschiff nicht unbedingt die neueste Technik sein muss, beweist auch die Sojus, die fast 40 Jahre lang mit dem Argon-16 Computer flog, und heute noch im wesentlichen auf der Konstruktion die in den sechziger Jahren entwickelt wurde basiert.

Wenn die NASA heute nicht mehr fähig ist (bzw. die US Industrie) Raumgefährte in der Technologie von vor 50 Jahren herzustellen, dann sollte sie die bemannte Raumfahrt komplett aufgeben. Eine Nation die in der Technologie so weit hinter dem Rest der Welt hinterherhinkt, dass sie nicht einmal eine einfache Kapsel konstruieren kann, benötigt nicht zwei Systeme, sondern sollte komplett die Raumfahrt lassen, da sie offensichtlich nicht einmal zu den einfachsten Gerätschaften fähig ist.

Warum gibt es denn dann trotzdem zwei Systeme? Nun es gibt zwei Systeme genauso, wie es zwei Systeme für die Versorgung gibt. Es geht nicht um den Zugang zu ISS, es geht um die Subvention von Raumfahrtfirmen. Alle größeren US-Raumfahrtkonzerne haben in den letzten Jahren fusioniert. Übrig geblieben sind nur zwei: Boeing und Lockheed Martin. Zwei größere Raumfahrtkonzerne erscheinender NASA offensichtlich zu wenig. Daher fördert sie neue Konzerne, Orbital und SpaceX. Die Entscheidung ist dahingehend zu sehen, dass ein Raumfahrtkonzern gefördert wird, und ein bewährter zweiter Konzern ebenfalls ein Auftrag erhält. Damit kann man Kritikern den Wind aus den Segeln nehmen, die behaupten würden, man würde die Versorgung der ISS von SpaceX abhängig machen. Daher hat man auch Boeings Angebot angenommen, obwohl es um 900 Millionen $ teurer war als das von SNC. Hätte man das Angebot von SNC auch angenommen, dann würde die Versorgung der ISS von zwei Neulingen auf diesem Gebiet abhängen. Mit Sicherheit gebe es Kritik an dieser Entscheidung. Hätte die NASA auf der anderen Seite nur eines der beiden neuen Unternehmen beauftragt, so wäre die Kritik noch heftiger gewesen, da man dann nur noch von einem unerfahrenen Anbieter abhängig ist. Hätte man nur Boeing den Auftrag gegeben, so wären bestimmt Stimmen laut geworden, die einen Rückfall in die Förderung eines teuren wenn auch bewährten Herstellers monieren würden.

In der Summe wird es sehr teuer: so wird jeder Sitz 70,7 Million $ kosten. Es wird, wenn man die Aufenthaltsdauer der Besatzung bei 180 Tagen lässt, nur zwei Flüge pro Anbieter pro Jahr geben. Noch verrückter: die NASA entwickelt ja selbst die Orion-Raumkapsel, diese darf aber nicht an die ISS andocken, bzw. ist so ausgelegt, dass sie dies technisch nicht kann. So ist das CCDev-Programm nichts weiter als ein Subventionsprogramm in der Raumfahrt.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99