Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 520: 3.2.2018 - 11.2.2018

3.2.2018: Ineffiziente Raumsonden – Teil 3

So, mit etwas Verspätung nun der letzte Teil über ineffiziente Raumsonden. Es sind zwei: BepiColombo und Insight.

Fangen wir mit letztem an, da es hier sehr einfach ist. Die Ineffizienz kommt hier zustande indem man keine adäquate Trägerrakete hat. Insight basiert auf Phoenix, er wird daher in etwa gleich schwer sein, etwa 700 kg beim Start. Früher hat man so etwas mit einer Delta 2 gestartet, man bräuchte nicht mal die Version mit neun Boostern, fünf würden auch genügen. Zwar hat die NASA sukzessive mehr Delta 2 nachbestellt, nachdem man 2011 schon die Produktion einstellte (es gab noch Bauteile für 5 Träger). Drei der Nachbestellten sind schon gestartet, die letzte folgt dieses Jahr. Aber wahrscheinlich gab es nicht mehr alle Bauteile für eine weitere, fünfte Delta. So hat man eine Atlas V gebucht. Rein theoretisch gäbe es ja noch die Falcon 9, sie ist für Mittelklasse-Missionen qualifiziert. Aber buchen will sie die NASA nur für die kostengünstigen Missionen oder internationale Missionen bei denen man nur zum Teil beteiligt ist. Ich denke bei Insight spielt eine Rolle, das SpaceX bisher nicht damit glänzen konnte enge Startfenster einzuhalten. Wenn man das versäumt war es das für die nächsten 2 Jahre mit der Mission.

Die Atlas V ist viel zu leistungsstark (sie könnte die vierfache Nutzlast transportieren). Daher hat man sich entschlossen den Start von Vandenberg aus durchzuführen. Vandenberg erlaubt minimal eine Inklination von 70 Grad, Das Cape eine von 28 Grad. Das hat nur aber einen kleinen Einfluss. Im Prinzip muss die Rakete mehr Geschwindigkeit aufbringen um in eine Erdbahn einzuschwenken da man bei der 28 Grad Inklination Cos(28) * 463 m/s nutzen kann und bei 70 Grad eben Cos(70) * 463 m/s. Doch das spielt bei einer viermal höheren Nutzlastkapazität keine große Rolle. Für die spätere Interplanetare Bahn hat die Inklination der Erdbahn dagegen keine Rolle. Nur die Bahnvektoren haben andere Parameter.

BepiColombo

Die für mich ineffizienteste Raumsonde der letzten Jahre ist BepiColombo. Dazu muss man etwas über die Geschichte wissen. Das Konzept wandelte sich ja im Laufe der Geschichte, aber die heutige Konfiguration hat folgende Geschichte:

Sie sollte ursprünglich mit einer Sojus 2B in einen Standard-GTO gelangen. Dort wären Ionentriebwerke aktiviert worden, um sie auf Fluchtkurs und dann zur Venus zu bringen. Die Ionentriebwerke waren im Konzept gerade dafür notwendig, auch wenn sie später nur beim Einschwenken in den Orbit um Merkur zum Einsatz kommen sollten.

Schon 2009 wechselte man auf die Ariane 5 ohne das Konzept zu hinterfragen. Grund war das BepiColombo 4.100 kg schwer wurde – über den 3.260 kg die eine Sojus 2B in den GTO transportiert. Die Ariane 5 hat zwar eine viel größere Nutzlast doch die konnte man nicht bei einem direkten Start nutzen. Der Grund ist das die Bahnneigung für einen direkten Start zur Venus „verboten“ ist. Dann würde die EPC auf südamerikanischem Festland niedergehen („verboten“ deswegen weil der letzte Start genau diese verbotene Zone durchquerte). Daher transportiert die Ariane 5 die Sonde zuerst auf eine Sonnenumlaufbahn, bei der Bepicolombo nach 18 Monaten die Erde passiert, und dann erst zur Venus aufbricht. Die Ionentriebwerke werden dann genutzt um sie zu Merkur zu bringen, wobei die Sonde aber trotzdem noch viele Venus- und Merkurvorbeiflüge braucht. Die Sonde braucht daher extrem lange um Merkur zu erreichen. Für mich gibt es eine Reihe von Möglichkeiten das besser zu lösen:

Ionentriebwerke weg

Wer den Blog verfolgt, der weiß ja, ich bin Fan von Ionentriebwerken, doch nur wenn man sie sinnvoll verwendet, d.h. man Nutzlast erhöht oder die Reisezeit verringert. Das ist hier nicht der Fall. Die Ariane 5 ECA kann etwa 6,5 t auf Venuskurs bringen (hochgerechnet von derzeit erreichten 10,95 t GTO Nutzlast auf 11.400 m/s Geschwindigkeit). Anstatt einer 4,1 t schweren Sonde mit Ionentriebwerken könnte man auch eine 6,5 t schwere Sonde mit Treibstoff nehmen. Bei einem Voll-/Leermasseverhältnis von 8 für den Antrieb und den bekannten Massen für MPO und MMO wären bei 6,2 t Startmasse (300 kg für Adapter / Reserve) eine Treibstoffzuladung von 3,6 t oder 58 % Treibstoffanteil. MESSENGER schaffte es mit 54 % in den Merkurorbit, dabei sind dabei die 600 kg Treibstoff des MPO nicht mal mitberücksichtigt. (MESSENGER beinhaltet auch das Einschwenken in den Orbit, das ist bei BepiColombo schon Aufgabe des Orbiters). Kurzum, man könnte es auch ohne Ionentriebwerke schaffen zumal man trotz der Tatsache das man in einem Merkurorbit durch Störungen viel Treibstoff braucht man sie abtrennt bevor man den Orbit erreicht.

Erdvorbeiflug weggelassen

Die zweite Möglichkeit ist es, zumindest den Erdvorbeiflug einzusparen. Wenn die Ariane 5 in der ECA Version es nicht wuppt, warum wechselt man nicht auf die EPS? Die wurde für ATV und jetzt Galileo eingesetzt. Anders als bei der ECA ist die Nutzlastangabe alt. Bei der ECA wurde die Nutzlast von 9,6 auf 10,95 t gesteigert. Schon mit der alten Nutzlastangabe von 2002 von 7,75 t in den GTO kann die Rakete 4,18 t zur Venus befördern. Nimmt man die Steigerung der ECA-Als Basis, so wären es wen der Gewinn auf den unteren Stufenberuht 4.900 kg. Damit wäre ein Kurs zur Venus in jedem Falle möglich und für die Ariane 5 ES gelten nicht die Einschränkungen der ECA, weil sie in eine Erdumlaufbahn befördert werden kann und dort erst gezündet werden kann, damit sind auch höhere Inklinationen möglich.

Bei der Sojus bleiben

Wenn ich schon Ionentriebwerke einsetze welche die Sonde aus dem GTO befördern, dann könnte man die 4,1 anstatt 3,2 t schweren Sonde in einen niedrigeren Orbit befördern. Die geringere Höhe würde man durch mehr Treibstoff bei den Ionentriebwerken kompensieren. Das spart nicht nur Kosten für die teurere Trägerrakete, sondern auch Zeit für den Erdvorbeiflug. 200 kg mehr Ionentreibstoff würden 1,2 km/s auffangen. 4,3 t (200 kg mehr) könnte die Sojus in einen 250 x 15.000 km Orbit befördern, der nur etwa 600 m/s weniger Geschwindigkeitsbedarf hat, dann dauert eben das Herausspiralen einige Monate länger. Das spart man aber bei den 18 Monaten die wegen des Erdorbeiflugs nötig sind ein.

Kurzum, mir fallen drei bessere Wege ein, wie man schneller zur Merkur kommt oder Kosten spart. Was mich daneben auch nervt ist: Bepicolombo setzt Ionentriebwerke nur im Transfermodul für den Merkurorbit ein. Wie schon erwähnt ist ein Merkurorbit instabil. Warum also nicht als Ergänzung zum chemischen Treibstoff ein kleineres Ionentriebwerk mitführen nur zum laufenden Anheben des Periherms? Warum setzt man eine moderne Antriebstechnologie gerade dann nicht ein, wenn sie die Mission verlängern kann?

5.2.2017: Warum ein neuer Computer nicht mehr viel schneller als ein Alter ist.

Bei mir stand ein Computerneukauf an, nicht bei mir selbst, aber bei meinem Bruder, dessen Rechner jetzt 6 Jahre auf dem Buckel hat. Dafür habe ich mich natürlich informiert, was gerade aktuelle Technik ist. Das Grundproblem ist, das man zwar in Zeitschriften gerne Vergleiche sieht, wie schnell die verschiedenen aktuellen Prozessortypen sind, aber nur wenig über die Geschwindigkeit verglichen mit einem älteren Prozessor, noch weniger natürlich, wenn es wie in Feinem falle, ein 6 Jahre alter Rechner ist. Ich dachte mir ich nehme das Mal als Aufhänger für einen Blog.

Die Geschwindigkeit eines Rechners kann man angeben als Instruktionen pro Takt Taktfrequenz. Ändert sich die Architektur nicht, das heißt die Instruktionen sind die gleichen, so kann man leicht Rechner vergleichen, wie in meinem Falle Prozessoren der x86 oder x64 Linie. Es klappt nicht mehr so gut, wenn die Architekturen unterschiedlich sind. So soll ein Raspberry Pi mit 700 MHz nach offiziellen Angaben so schnell wie ein 300-MHz-Pentium II sein – meiner Erfahrung nach erreicht er nicht mal das Tempo. Doch schon die Angabe 700 MHz zu 300 MHz zeigt das die interne Architektur des Pentium „mächtiger“ ist als die eines ARM Prozessors. Sonst bräuchte man nicht nur 300 MHz um die gleiche Geschwindigkeit wie ein ARM-Prozessor mit 700 MHz zu erreichen. Dabei ist dieser sogar noch jünger, sollte also leistungsfähiger als die Generation sein, die zu der Zeit des Pentium II (1996-1998) aktuell war.

Aus der Gleichung gibt es zwei Ansatzpunkte die Geschwindigkeit zu erhöhen: höhere Taktfrequenz und mehr Instruktionen pro Takt (IPC: Instructions per Clock). Fangen wir mit dem komplizierteren an, dem IPC.

Als der 8086 erschien, brauchten alle Befehle mehrere Takte, selbst einfache Befehle oder welche, die gar nichts taten wie der Befehl NOP. Im Schnitt brauchte ein Befehl beim 8086 in der Ausführung 7,7 Takte. Er hatte die klassische Architektur der damaligen Zeit implementiert: Befehl aus dem Speicher holen, Befehl dekodieren, Befehl ausgeben und eventuell Ergebnis zurückschreiben. Jede Operation benötigte einen Takt, oft mehrere. Komplexe Befehle wie Multiplikation oder Division brauchten sogar über 100 Takte.

Die nächste Generation, der 80286, hatte eine Pipeline eingebaut. Sie holte bei jedem Takt einen Befehl, nicht nur wenn ein Befehl gerade fertig war. Bei jedem Takt wurde der Befehl in der Pipeline eine Stufe weitere befördert. Das ist eine erste Stufe der Parallelisierung. Es befinden sich immer mehrere Befehle in verschiedenen Stadien der Ausführung in der Pipeline. So brauchte der 80286 für die meisten einfachen Befehle nur noch zwei bis drei Takte. Er war beim gleichen Takt mindestens um den Faktor, 2, oft sogar um den Faktor 3 schneller als sein Vorgänger. Noch brauchten aber alle Befehle mehr als einen Takt, weil die Pipeline nur drei Stufen hat - wenn der Durchschnitt bei 8 Takten pro Befehl liegt, müsste sie acht Stufen umfassen, um einen Befehl pro Takt abzuarbeiten.

Bei den nächsten beiden Generationen wurde die Pipeline immer länger und der 486 erreichte nun tatsächlich, dass 80 % der Befehle in einem Takt ausgeführt wurden. Sie war nun fünf Stufen lang. Mit der Ausführung von einem Befehl pro Takt war die erste Grenze der Architektur erreicht. Unter diesen Wert kann man die Geschwindigkeit mit einer Pipeline nicht mehr drücken, auch wenn es sehr viele Stufen sind (den Rekord hält hier der Pentium 4 bei dem es bis zu 32 Stufen waren).

Beim Pentium gab es daher einen Bruch mit der Architektur. Er hatte zwei arithmetisch-logische Einheiten (ALU), mit denen Ganzzahlberechnungen, aber auch Bitverknüpfungen oder Vergleiche durchgeführt wurden. Die Pipeline konnte nun beide Einheiten versorgen, das heißt, Befehle die diese Einheiten konnten nun parallel ablaufen. Das Problem: Code wird linear ausgeführt, so schreiben ihn Menschen aber auch Compiler. Ein Schritt nach einem anderen kann unabhängig vom Ersten sein, muss aber nicht, kann z.B. ein Rechenergebnis verwenden, das erst errechnet werden muss. Mit diesem Feature „Out of Order execution“ kann die Geschwindigkeit stark steigern, die CPU werden aber auch sehr komplex. Es muss genau Buch geführt werden, welcher Befehl von welchem unabhängig ist, welche Einheit gerade frei ist und wann ein Ergebnis zur Verfügung steht. Dazu kam ein zweites Feature, die spekulative Ausführung: Das parallele Ausführen macht keinen Sinn, wenn bei einem Sprung (und den gibt es in Programmen häufig) man Befehle ausführt, die gar nicht mehr gültig sind. Eine Sprungvorhersage ermittelt daher, wohin wahrscheinlich beim nächsten Sprung gesprungen wird. Diese Sprungvorhersage oder spekulative Ausführung ist die zweite Architekturänderung, die nötig ist. Die beiden Sicherheitslücken, die es bis in die Nachrichten schafften Meltdown und Spectre basieren darauf, dass man die Out-of-Order und Sprungvorhersage Einheiten so trainierte, dass man auf Speicherbereiche zugreifen konnte, die nicht zum eigenen Prozess gehörten, indem diese schon vorsorglich in die Caches geladen wurden. Trotz des Sicherheitsmankos ist das Feature mächtig. Bei Intel beherrschen nur die Atoms kein Out-Of-Order Scheduling. Vergleicht man die Geschwindigkeit eines Atoms mit dem einfachsten „normalen“ Prozessor von Intel, früher ein Celeron, heute steht der Begriff nicht mehr für eine Architektur, so zeigt sich das ein Atom bei gleichem Takt enorm viel langsamer ist.

Im Prinzip hat sich seitdem nicht mehr viel geändert. Beim Pentium war das Feature der parallelen Ausführung noch rudimentär, beim Pentium Pro voll ausgebaut. Auf dessen Architektur basiert noch die heutige Skylake Architektur. Zwischendurch versuchte Intel einen Wechsel – die mit dem Pentium 4 eingebaute Netburst Architektur basiert auf nicht so vielen Einheiten, dafür schnellerer Ausführung, doch diese erwies sich als eine Sackgasse. Skylake hat heute 22 Funktionseinheiten, die von 7 Ports gefüttert werden. Diese große Zahl ergibt sich daraus, dass zwar durch eine Pipeline ein Befehl pro Takt ausgeführt wird, die Ausführungszeit aber immer noch mehrere Takte beträgt. Solange ist eine Einheit belegt und daher braucht man mehrere. Die Portzahl ist daher aussagekräftiger. 7 Ports bedeuten: maximal 7 Befehle können gleichzeitig aktiv sein. In der Praxis sind es 3 bis 4.

Erst mit der letzten Pentium-4-Generation führte Intel mehrere Prozessorkerne ein. Der Unterschied zu parallelen Funktionseinheiten ist, dass der gesamte Prozessor mehrfach vorkommt. Er ist auch dem Betriebssystem bekannt, das so verschiedene Prozesse an verschiedene Kerne verteilen kann. Das können Anwendungsprogramme, aber auch Systemtreiber sein. Die Kernzahl ist seitdem nur langsam gestiegen. Intel versprach mit jeder Generation die Kernzahl zu verdoppeln, das hat sich nicht bewahrheitet, denn dann müssten Skylake Prozessoren mindestens 32 Kerne haben. Tatsächlich hat das Einsteigersegment zwei Kerne, die etwas besseren Prozessoren vier und nur im Spitzensegment (der Desktop-Prozessoren) gibt es mehr, wobei auch hier erst durch die Ryzen von AMD Bewegung kam. Bei der Serverlinie, den Xeons, gibt es aber tatsächlich Prozessoren mit bis zu 36 Kernen. Der einfache Grund: Server, die viele Benutzer haben oder hochparallele Programme ausführen, nutzen so viele Kerne auch aus, Programme für Desktop-Rechner, die meist interaktiv sind dagegen nicht. Ein Zwischenschritt zwischen echten Kernen und den für das Programm unsichtbaren mehrfach vorhandenen Funktionseinheiten ist das Hyperthreading oder als allgemeiner Begriff, Simultaneous Multithreading. Dabei werden dem Betriebssystem mehr Kerne gemeldet, als es gibt. Die Befehle werden dann in die laufende Abarbeitung eingefügt, wobei man da es getrennte Threads sind, dies einfacher ist als das Umsortieren von Befehlen eines Threads. Allerdings kann man mit SMT, da es eben nicht zwei vollständige Kerne sind niemals so viel Leistung erreichen wie mit zwei eigenen Kernen.

Kommen wir zum zweiten Kriterium: der Taktfrequenz. Die stieg lange Zeit dauernd an. Anfangs erst langsam. Der 8086 erschien mit 8 MHz, auch der 286, der 386 mit 16 MHz, der 486 mit 20 MHz. Ab dem Pentium gab es eine Phase, in der die Taktfrequenz pro Generation rapide anstieg: 66 MHz beim Pentium, 233 MHz beim Pentium II, 450 MHz beim Pentium III, 1.200 MHz beim Pentium 4. Von 1978 bis 1994 stieg in 16 Jahren die Taktfrequenz um den Faktor 8. Von 1994 bis 2003 in neun Jahren um den Faktor 45. Der Pentium 4 erreichte eine Spitzentaktfrequenz von 3,83 GHz, doch das war nicht mehr weiter steigerbar. Die erste Generation der iCore Architektur ging wieder auf 3,33 GHz Spitzentakt herunter. Heute werden wieder 4 GHz erreicht und überschritten aber um nicht mehr viel.

Das heißt, wir haben zwei Dead-Ends: Die Spitzentaktfrequenz ist seit über 10 Jahren kaum gestiegen, die interne Architektur ist seit derselben Zeit nahezu unverändert, wenn man sie auf den Pentium Pro zurückführt, sogar seit über 20 Jahren. Natürlich gab es immer wieder Verbesserungen in der Zeit dazwischen, aber eben doch evolutionäre Änderungen. Damit komme ich zum Ausgangspunkt zurück – lohnt es sich heute einen 4 bis 6 Jahre alten PC auszuwechseln, nur weil der Prozessor zu lahm ist. Nach Intels Angaben wurde die Geschwindigkeit wie folgt gesteigert:

 


Technik

ST-IPC-Gewinn

ST-IPC vs. Dothan

Dothan

Pentium M (Refresh), 2C ohne HT/TM, 90nm (2004)

-

100%

Merom

Core 2 Duo, 2C ohne HT/TM, 65nm (2007)

+15%

115%

Penryn

Core 2 Duo (Refresh), 2C ohne HT/TM, 45nm (2008)

+2%

117,5%

Nehalem

Core 9xx, 4C +HT +TM, 45nm (2008)

+12%

131,5%

Sandy Bridge

Core 2xxx, 4C +HT +TM, 32nm (2011)

+10%

144,5%

Ivy Bridge

Core 3xxx, 4C +HT +TM, 22nm (2012)

+5%

152%

Haswell

Core 4xxx, 4C +HT +TM, 22nm (2013)

+10,5%

167,5%

Broadwell

Core 5xxx, 4C +HT +TM, 14nm (2015)

+5,5%

177%

Skylake ist da noch nicht dabei, soll aber bei maximal 10 % liegen. Immerhin, in 13 Jahren sind es summierte 177 %. Doch es gibt noch einen anderen Faktor. Seit die Parallelisierung einzog, ist es so, dass der Geschwindigkeitsgewinn nicht linear abhängig ist, sondern stark vom Programm abhängig. Beim Pentium war es so, dass er den damals noch weit verbreiteten 16-Bit-Code in DOS kaum beschleunigte. Bei so vielen Generationen wie in der oberen Tabelle kommen dann noch Befehle hinzu, die ein neueres Programm nutzen kann. Vor allem bei Fließkommabefehlen hat Intel in den letzten Jahren viel gemacht. Die Angaben von Intel kann man also als optimistisch ansehen.

Eine andere Webseite kam auf folgende Werte beim Auswerten der Geschwindigkeit gängiger Programme:

Technik

Intel Angabe

Dothan


-

Merom


+15%

Penryn


+2%

Nehalem


+12%

Sandy Bridge


+10%

Ivy Bridge

+ 5,8 %

+5%

Haswell

+ 11,2 %

+10,5%

Broadwell

+ 3,3 %

+5,5%

Skylake

+ 2,4 %

+ 10 %

Bei zwei Genrationen wurden die Intel-Angaben erreicht, nicht jedoch bei den letzten beiden. Das wundert nicht, den intern hat sich bei Haswell wenig getan. Die wichtigsten Änderungen betreffen die AVX-Einheit, die bei nicht-wissenschaftlichen Anwendungen jedoch keine Rolle spielt. Dazu und das ist eher von Bedeutung wurde die OnBoard-Grafik leistungsfähiger. Bei Ivy-Bridge wurde sie als erste integrierte Grafikeinheit eingeführt. Damals hatte die kleinste Version 6 Shader und einen Basistakt von 350 MHz, die größte 12 Shadereinheiten bei 750 MHz. Bei Skylake hat die kleinste Version 12 Shadereinheiten bei 1 GHz Takt und die größte Version 72 Shadereinheiten bei 1,3 GHz. Das heißt, die Grafikeinheiten haben sowohl, was den Takt wie auch die Zahl der Einheiten angeht, deutlicher zugelegt als die CPU. Inzwischen reicht sie aus für nicht so anspruchsvolle aktuelle Spiele in Full-HD Auflösung, während die ersten Versionen nur einige Jahre alte Spiele flüssig darstellen können. Von einer dezidierten Grafikkarte sind sie noch weit entfernt. Ich denke, dass dieser Trend anhalten wird.

Zurück zu meinem Aufhänger. Ich habe mit meinem Bruder einen heruntergesetzten Fujitso Esprimo 556P herausgesucht. Nicht ganz mein Wunschkandidat. Das Problem ist, das mein Bruder nicht viel für einen Rechner ausgeben will. Immerhin erfüllt er in anderen Kriterien (250 GB SSD, mindestens 8 GB RAM) meine Erwartungen. Ich hätte gerne einen iCore i3 7100 Prozessor mit bis zu 3,9 GHz gehabt, doch der lag nicht im Budget, so wurde es ein Pentium 4560 mit maximal 3,5 GHz und etwas langsamerer interner Einheit. Trotzdem war der Rechner nur unter 500 Euro, weil er runtergesetzt war. Beim Installieren war er recht flott, in etwa so schnell wie meiner (iCore i5 4590 mit 3,9 GHz). Kein Vergleich mit dem alten Rechner meines Bruders – der war ein AMD mit 4 x 1,8 GHz, das heißt zum einen niedrigerer Takt zum anderen eine Architektur, die auch weniger IPC pro Sekunde ausführt, zudem nur mit Festplatte.

Für mich steht nach dem Schreiben des Artikels aber eines fest: mein Rechner der nun auch dreieinhalb Jahre alt ist wird es noch eine Weile tun, denn gegenüber Haswell liegt selbst nach Intel Angaben der Geschwindigkeitsgewinn bei gleicher Taktfrequenz nur bei maximal 15 %, realistisch eher bei 7 %, das merkt man bei der täglichen Arbeit nicht. Um die 30 % Geschwindigkeitsgewinn – das gibt die ct‘ als „merkbar“ an, zu erreichen müsste man einen Rechner mit der Sandy-Bridge-Architektur ersetzen, mithin einen über sechs Jahre alten Rechner.

7.2.2017: Jammern bei den kommerziellen Raumstationen

Trump will den Betrieb der ISS bis 2025 beenden. Vorher geht nicht, da Obama schon 2014 den Betrieb bis 2024 verlängert hat und zwischen CSA und Russen diesem zugestimmt haben (die JAXA und ESA fehlen noch, die haben derzeit aber auch bis 2020 den Betrieb genehmigt und keiner rechnet, damit dass man nicht ach die weiteren 4 Jahre hinbekommt, offen ist nur, wie die ESA die Betriebskosten kompensieren soll, denn die beiden Orion-Servicemodule decken nur bis 2020 ab).

Das ganze hat dann einen Sturm ausgelöst. Vor allem die „kommerziellen“ Firmen haben sich dagegen gewehrt. Die Firmen sind zwar nicht müde zu überlegen, was sie nicht alles machen können, doch finanzieren soll es der Staat: vor einigen Wochen gab es Pläne von ULA und Bigelow für ein Habitat in einem Mondorbit. Pläne der NASA gab es keine. Interessant wie die Firmen sich ihr Geschäftsmodell ihres Habitats vorstellen. Das Habitat das die nach nicht will, soll sie größtenteils finanzieren:

„Bigelow emphasized he saw this proposal as a public-private partnership. He estimated NASA’s share of the costs to be $2.3 billion, in addition to the “hundreds of millions” being spent by both Bigelow Aerospace and ULA. “It’s executable within four years of receiving funding and NASA giving us the word,” he said.“

Die Angabe von „Hundrets of Millions“ ist natürlich dehnbar, aber wenn die Summe nahe bei einer Milliarde gewesen wäre, würde man wohl von „nearly a billion“ sprechen, so tippe ich auf einen Betrag von < 500 Millionen Dollar. Selbst bei 900 Millionen gehen die Firmen aber davon aus, dass der Staat dann das 2,5-fache ihrer Investitionen zahlt. Kommerziell ist bei mir was anderes.

Eigentlich sollten 2025 Firmen doch übernehmen können. Der Staat hat mit CCdev die Raumfahrzeuge entwickeln lassen, nun müssten sie nur noch für die Starts aufkommen. Bigelow konnte sein Konzept im Kleinen an der ISS erproben. Sie sparen so Entwicklungskosten und Erprobungszeit.

Warum es trotzdem nicht klappt? Weil es zu teuer ist. Als die ISS entstand, hatten NASA und ESA sogar die naive Idee, das sie sich im Betrieb weitestgehend selbst finanzieren könnte, wenn man die Ressourcen vermietet. Es gab damals sogar von der NASA eine Preisliste: Für den Betrieb eines Standardracks über ein Jahr, eingeschlossen 86 Crewstunden Arbeitszeit, verlangte die Preisliste von 2001 20,8 Millionen Dollar. Dazu kam noch der Transport und Rücktransport der Anlagen mit dem Shuttle zu Preisen von jeweils

10.000 $ pro Kilogramm.

Das war eigentlich damals schon billig. Die Shuttle-Startpreise wurden nur soweit berechnet, wie sie missionsspezifisch waren – 80 % der Kosten beim Shuttle waren aber Fixkosten. Heute kostet beim preiswerteren US-Zubringer SpaceX der Transport eines Kilos 60.000 Dollar, also das sechsfache. Trotz dieser Schnäppchenpreise war das Interesse gleich Null. Es gibt auf der ISS kaum kommerzielle Einsätze. In den Druckmodulen wenige, einige gibt es bei den externen Anbringungsmöglichkeiten. Die werden für Erdbeobachtungen genutzt. Dabei hat sich an der Subventionspolitik nichts geändert: Kunden zahlen nie den kostendeckenden Preis. Das führt dazu, dass es einfacher ist, einen Cubesat im Frachtraum eines Raumtransporters zur ISS zu befördern und dort von Astronauten aussetzen zu lassen als ihn regular starten zu lassen – obwohl ein Transporter maximal ein Drittel seiner Startmasse als Nutzlast hat und natürlich zusätzliche Kosten aufwirft.

Es ist nicht mal so das die Forschungsmöglichkeiten voll ausgenützt werden. Die externen Befestigungspunkte werden erst 2024 alle belegt sein, intern stehen auch Racks leer, vor allem im japanischen Modul. Beim US-Modul gab die NASA ihre Racks an Universitäten ab. Ähnliche Kooperationen gibt es auch in Europa, doch ist hier der Teil den ESA/DLR selbst nutzen höher. Auch hier funktioniert dies nur, weil die universitären Nutzer nichts zahlen. Weder für den Transport noch die Crew-Arbeitszeit noch die Nutzung der Kapazitäten von Kontrollzentren und des Satellitennetzwerks von NASA und Roskosmos. Wenn es im wissenschaftlichen Bereich nicht mal genügend Nachfrage gibt, wenn es umsonst ist, wie groß ist dann der Bedarf im kommerziellen Bereich?

Natürlich kann es sein, das ein kommerzieller Raumstationsbetreiber andere Vorteile bietet. Raumfahrtagenturen sind ja nun nicht gerade dafür bekannt, dass sie flexibel sind und schnell reagieren. Hier könnte ein privater Anbieter flexibler reagieren. Eine Station kann auf die Bedürfnisse der Nutzer ausgelegt sein. Bei der ISS ist die Besatzung weitestgehend damit beschäftigt, die ISS in Schuss zu halten und sich selbst ebenso. Alexander Gerst stellte mit Expedition 40+41 einen Rekord auf: 80 Tage wissenschaftliche Arbeit pro Woche. Das sind 30 Stunden mehr als die Norm. Doch selbst wenn man die beiden russischen Kosmonauten ausklammert, sind das nur 20 Stunden pro Astronaut und Woche. Bei Skylab waren es noch 44 Stunden. Wenn ein kommerzieller Betreiber auf die Idee kommt, eine Station nur wenige Jahre zu betreiben und nicht in dem Maße zu warten wie die ISS und Astronauten kürzer an Bord sind, sodass sie wenig Training brauchen, um einen Muskelabbau zu verhindern, dann kann sich das durchaus lohnen, wenn man dann mehr Arbeitszeit zur Verfügung hat. Wie ich schon mal vorgerechnet habe, sich auch jeder leicht ausrechnen kann, ist, wenn eine Station nicht extrem teuer ist, der Mannschaftstransport und Frachttransport das Teuerste. Denn dabei braucht man jeweils einen Start und jedes Mal geht ein Transporter verloren. Zumindest am Letzteren könnte man ja noch einiges verbessern und SpaceX ist ja auf einem guten Weg dahin. Der Dreh- und Angelpunkt ist ja die Sicherheit. Das grundsätzliche Problem, das die NASA hat, ist, dass wenn etwas passiert, sie massiven öffentlichen Druck ausgesetzt ist. Daher geht derzeit das Pendel in Richtung maximale Sicherheit, während man beim Space-Shuttle immer ein systemimmanentes Restrisiko hinnahm. Ein Nutzer eines kommerziellen Services kann dies dagegen pragmatischer sehen und eine Sicherheitsniveau akzeptieren, dass für die NASA untragbar ist. Eine Sicherheit von 99 % - ein Wert, der in den Anfängen der Raumfahrt toll gewesen wäre, wäre fünf- bis zehnmal weniger sicher, als das was die NASA fordert. Ein Konzern könnte seine Astronauten über Lebensversicherungen absichern, und wenn die 10 Millionen Euro pro Person betragen kostet, ihn das pro Flug trotzdem nur 100.000 Euro Prämie – wenig verglichen mit den Flugkosten. Die Frage ist nur, wie hoch das Risiko ist, ab der er niemanden mehr findet, der in den Orbit reisen will.

Auch der Orbitaltourismus sehe ich nicht als Lösung. Zum einen gibt es dazu zu wenig Touristen. Wenn SpaceX eine bemannte Dragon für den gleichen Preis wie eine Unbemannte starten kann und noch mal derselbe Preis für Astronautentraining und Unterhalt der Raumstation dazukommt, dann würden im besten Falle (alle sieben Astronauten sind zahlende Passagiere – was ich aber für unwahrscheinlich halte, zumindest einer sollte sich auskennen mit Raumfahrzeug und Raumlabor) ein Flug 43 Millionen Dollar pro Person kosten. So viel kostet er schon heute, und da gibt es wenige, die das machen wollen. Noch problematischer: wenn es ein gemischter Betrieb ist also kommerzielle Forschung und Tourismus, dann beißen sich die Aufenthaltszeiten. Kommerzielle Forschung will Forschungsvorhaben beenden, zumindest aber die Fixkosten von Start und Landung auf viele Aufenthaltstage umlegen. Touristen werden sicher einige Wochen, aber nicht viele Monate an Bord bleiben wollen. Eine Lösung wäre das Verfahren, wie es bis 2009 bei der ISS war: Eine Crew startet mit einem Touristen, der kommt mit der vorherigen Crew wieder herunter, die 1-2 Wochen nach Ankunft der Neuen die Station verlässt, dann ist es eben mal für einige Zeit enger.

Kurz prinzipiell ginge es viel billiger als mit der ISS die, wenn man die Aufwendungen aller Nationen zusammenzählt, auf etwa 4 Milliarden Dollar Unterhaltskosten pro Jahr kommt. Die Frage ist nur, ob kommerzielle Raumstationen in einen Bereich kommen, der für die Industrie oder auch Einzelpersonen attraktiv ist. Wenn die Pioniere aber trotz der Quersubvention der NASA aber skeptisch sind, dann glaube ich wird nichts draus. Wie schon gesagt, 2001 gab es für die Preisliste Null-Interesse. Dabei entsprechen die Kosten, wenn man sei, auf die gesamte ISS hochrechnet nur 719 Millionen Dollar pro Jahr, also weniger als ein Fünftel, was sie heute kostet.

Über das Schicksal der ISS ist natürlich noch nicht endgültig entschieden. Schon 2005 wollte man sie bis 2010/11 ausmustern – hat man revidiert. Wenn Trump nicht wiedergewählt wird – und das erscheint, wenn er nicht gravierend seine Politik und seinen Stil ändert, doch sehr wahrscheinlich dann kann der nächste Präsident 2021 den Entschluss noch ändern und das noch lange, bevor 2024 erreicht ist.

9.2.2018: Lebensdauer: 4-6 Monate

Seit gut zwei Jahren bin ich viel unterwegs. Jetzt im Winter jeden Tag eine Stunde Spazierengehen+ (+ weil ich etwa 10 Minuten laufe) und im Sommer etwa 45 Minuten am Tag auf dem Rad. Weil es in beiden Fällen immer dieselbe Strecke ist (im Winter einmal runter ins Neckartal und wieder rauf, das sind rund 5,4 km mit 160 m Höhenunterschied bzw. im Sommer ins 6,7 km entfernte Freibad und zurück habe ich da immer etwas Musik dabei.

5 Jahre lang hat mir mein Creative Zen die Treue gehalten, dann wurde die Batterie schwach. Seitdem habe ich in zwei Jahren nicht weniger als 5 MP3-Player „durchprobiert“, mit dem obigem Resultat der Titelzeite.

Zuerst einen AGPTek Player, damals wie heute der meistverkaufteste in Amazon. Die Bedienung ist umständlich, das gilt auch für alle folgenden. Der einfache Grund: Sie haben alle nur 5 Tasten. Die braucht man schon fürs Abspielen nämlich:

Dazu bräuchte man nun noch mindestens eine Taste für das Aufrufen des Menüs, idealerweise noch zwei weitere für Ein-/Aus und Auswählen eines Menüpunktes. Der Zen hatte neun Tasten, eine davon habe ich aber nie gebraucht. Was bei so wenigen Tasten rauskommt, ist eine Doppelbelegung, die umständlich ist. Schon beim AGPTek fiel mir auf das die Navigation so extrem schwierig ist. Wenn man ein bestimmtes Lied erreichen woll kann man nur auf hoch/runter drücken. Der Zen hatte eine zweite Liste mit den Anfangsbuchstaben, zwischen denen man wechseln musste, um bei Hunderten von Liedern nicht Hunderte Male zur drücken. Entsprechend fielen bald die Tasten aus, wenig später war nach einem Aufladen der ganze Player tot.

Danach habe ich auf das typische Schaubild der Menüs geachtet und alle solche Player gemieden, denn dann gehe ich davon aus, dass dann auch dasselbe Innenleben drin steckt.

Der Nächste war dann ein Intenso Player. Diesmal wegen der wechselbaren Batterie und weil es Marke war. Doch auch er war nach einigen Monaten tot – die wichtigste Taste reagiert nicht mehr. Dazu konnte er nur 999 Titel wiedergeben und das Display war sehr pixelig und schwer lesbar.

Da ich inzwischen vom reinen MP3-Hören abkam und viel Radio gehört habe, war das nächste Gerät ein tragbares Radio mit MP3-Funktion – nach dem DAB Standard. Das lief auch ganz gut, auch wenn ich auf bestimmten Wegen bald auf den UKW-Teil ausgewichen bin. DAB hat Vorteile und Nachteile. Im stationären Betrieb ist es besser als UKW, da kann man auch eine lange Antenne ausfahren und der Klang ist immer gut. Im mobilen Betrieb sieht das anders aus. Während man bei UKW ein verstärktes Rauschen hat, setzt bei DAB einfach der Ton komplett aus, das ist unheimlich störend und es ist meiner Erfahrung nach empfindlicher. Es reichen schon hohe Häuser, um zu Aussetzern zu kommen, erst recht wenn ich dann ins Neckartal heruntergehe und die Hügel dann den Empfang verschlechtern. Allerdings ist auf der Strecke auch UKW nur eine Zumutung, sodass ich dann auf MP3 wechsele. Das ging 4 Monate gut, dann gab es erst Wackler beim Kopfhörer (Ton da oder weg, oder nur links oder ganz leise) und nach wenigen Tagen kam gar kein Ton mehr, egal welchen Kopfhörer ich anschloss.

Das Gerät hat mich 45 Euro gekostet und nicht mal 4 Monate gehalten, da wollte ich beim nächsten nicht viel ausgeben und nach den negativen Erfahrungen kaufte ich das billigste, was es gab. Der Feitong Player ist wirklich billig. Eine Macke fiel mir bald auf: Angeblich mit 8 GB bestückt überschreibt er alte Dateien, wenn man mehr las, 3,5 GB drauf packt und selbst dann gibt es dasselbe Phänomen, wenn zu viele Dateien in einem Verzeichnis sind. Ein Chkdsk-Lauf auf dem Massenspeicher zeigt dann die Fehler auf. Ich habe ja schon von USB-Sticks mit Phantomspeicher gehört aber bei MP3-Spielern. Mit der Einschränkung ging es ganz gut, auch wenn bei dem Player, wie bei allen vorherigen, die Shuffle Funktion nicht wirklich brauchbar ist (man hat selbst bei 700 Liedern innerhalb von 30 Minuten den ersten abgespielten Song erneut im Ohr) konnte er wenigstens anders als andere ein Verzeichnis durchspielen und dann automatisch ins nächste wechseln. Die meisten stoppen dann am Ende eines Verzeichnisses.

Als ich ihn einige Wochen nicht benutzt habe, stürzte er beim Einschalten ab und das ist seitdem reproduzierbar so, manchmal gibt es auch Farbschnee auf dem Display beim Aufhängen. Also ebenfalls Totalschaden.

Der Letzte ist nun knapp 6 Monate alt, wieder ein Kombigerät diesmal MP3 Player mit Radio. Inzwischen an die krude Bedienung gewöhnt ging es eigentlich mit dem ganz gut. Je nach Strecke nutzte ich MP3 oder Radio, bis nun auch dieses Gerät vor wenigen Tagen mit Wacklern beim Kopfhörer anfängt und wohl bald ausfallt.

Nun habe ich mir ein neues gekauft, diesmal Radio mit MP3 Funktion. Ich rechne nicht damit, dass es länger als 6 Monate hält.

Was ist das Resümee? Es ist die Überschrift: Alle Geräte halten nur einige Monate. Dabei sind es nicht die Ersten. Ich hatte über 2 Jahre lang einen MP3 Player denn man direkt am Ohr trug, der funktioniert tadellos, bis er mal bei einem Sturz zu Bruch ging, dann der erwähnte Creative Zen, den ich immer noch im Einsatz habe, nur eben jetzt nur noch fürs Abspielen bestimmter Lieder, weil alle obigen Geräte keine Navigation haben, die bei mehr als 10-20 Titeln brauchbar ist. Der Markt von MP3-Playern ist dominiert von China-Marken. Alle diese Geräte stammen aus China und ich würde sie als China-Schrott bezeichnen. Natürlich fertigen auch große Konzerne in China und bekommen Qualität, das was die chinesischen Firmen aber selbst produzieren, ist Schrott. Die verschiedenen Ausfallursachen habe ich ja schon beschrieben. Dazu kommt eine unsäglich umständliche Menübedienung und Funktionsdefizite wie eine brauchbare Shuffle-Funktion oder ein fehlendes Autowrap am Ende eines Verzeichnisses. Dafür sind sie vollgestopft mit überflüssigen Funktionen wie e-books lesen oder Bilder und Videos anschauen – wer macht das mit einem 1-Zoll-Display? Das Letzte ist etwas, was mich besonders ärgert. Klar kann man an der Hardware sparen und dann halten Tasten oder kontakte eben nicht lang, aber an der Software? Warum nicht mit denselben Ressourcen eine saubere Menüführung, brauchbare Navigation, Shuffle Funktionen die den Namen verdienen programmieren und stattdessen auf so überflüssigen Kram, den keiner braucht, verzichten? Ich habe selten so was lieblos programmiertes gesehn, stattdessen sind andere Dinge wichtig, wie rotierende Hintergründe beim Ein-/Ausschalten. Für mich als Softwaretechniker ein typischer Fall, wo man Arbeit, in Dinge gestellt hat, die unnötig sind.

Ich würde ja gerne ein Markenprodukt kaufen. Auch wenn Intenso eigentlich ja schon Marke ist und sich als Flop erwiesen hat. Doch die einzige Marke, die noch im bezahlbaren Bereich ist: Scandisk, hat relativ schlechte Bewertungen von Amazon. 100 Euro für einen Sony Walkman erscheint mir immer noch zu hoch. Ansonsten gibt es nur China-Produkte. Wer auf das typische Kreuz der Bedienung mit der markanten Beschriftung achtet, dem wird wie mir auffallen, dass es zwar verschiedene Hersteller sind, die Hardware dahinter außer dem Gehäuse aber die gleiche ist. Ich hatte ja schon mal angefangen, selbst einen MP3-Player auf Basis eines Raspberry Pi zu programmieren. Die Hardware dazu habe ich inzwischen, einen Raspberry Pi A+ (braucht am wenigsten Strom aller aktuellen Modelle, der Zero wäre noch anspruchsloser doch der hat keinen Netzwerkanschluss), ein berührungssensitives 3,5-Zoll-Display und eine 10-Ah-Powerbank, als Stromversorgung. Ich habe das noch nicht weiter verfolgt, weil es in der Summe, dann doch sehr schwer und das Display auf die GPIO-Pins aufgesteckt, ziemlich wackelig ist.

Ich weiß nicht, was andere machen. Ich vermute sie nutzen das Smartphone als Player. Ich habe inzwischen auch eins, nutze das aber nur für Direktbanking für das mobileTan Verfahren. Es ist mir zu umständlich als Player und mit berührungsempfindlichen Display ist die Chance noch größer, das man durch Bewegungen beim Laufen eine Funktion aktiviert. Ich glaube allerdings eher, das der Trend Musik zu hören ,inzwischen vom Trend beim Laufen etwas auf dem Smartphone zu tun abgelöst wurde. Ich sehe genügend Leute die beim Gehen und sogar Fahrradfahren auf ihr Smartphone glotzen und da was machen.

 

11.2.2018: Raketennachlese

Vor wenigen Tagen hat die zweite SS-520 ihre erste Nutzlast in den Erdorbit gebracht. Der Rekord der Rutherford von vier Wochen ist damit sehr kurzlebig gewesen. Die SS-520 ist nun die kleinste Rakete und ich denke diesen Titel wird sie für lange Zeit behalten. Entstanden aus einer zweistufigen Höhenforschungsrakete, wie Japans erste Rakete Lambda, transportierte sie nur 3 kg in eine 180 x 1500 km Bahn. Bei einer bekannten Treibstoffzuladung von 78 kg in der letzten Stufe wiegt die trocken sicher über 10 kg, wodurch selbst in eine 180 km hohe Bahn dann die Nutzlast maximal 6 bis 7 kg beträgt. Wenig bei 2,6 t Startmasse. Mit Startkosten von 4,4 Millionen Dollar ist sie in jedem Falle pro Kilogramm Nutzlast die teuerste Trägerrakete. Die Rutherford kostet mit 4,9 Millionen Dollar nur wenig mehr und hat mehr als die zehnfache Nutzlast.

Kleine Trägerraketen sind nun en vogue. Neben den beiden gibt es ja noch die SPARK / Superstrypie die in dem Segment mitmischt, sowie rund 30 Projekte in den verschiedensten Ländern und Entwicklungsstadien. Das hat auch die ESA auf den Plan gerufen, die nun Klein-Trägerraketen fördert. Schon vorher wurde die Idee der Mini-Vega aufgegriffen. Die Mini-Vega ist eine Vega ohne erste Stufe. Das grundsätzliche Problem: Das AVUM, das letzte Modul, wiegt leer rund 500 kg. Wenn die erste Stufe weggelassen wird, sinkt die Nutzlast stark ab, das AVUM bleibt aber gleich schwer, sodass die Nutzlast minimal ist. Ich halte die Mini-Vega als einfachen Vega Nachbau für eine schlechte Idee. Man müsste sie gravierend modifizieren, entweder aus dem AVUM eine größere Stufe machen mit mehr Treibstofftanks oder eine weitere Stufe addieren. Das alles kostet aber Geld. Mit der Mini-Vega werde ich mich in meinem nächsten Blog genauer beschäftigen.

Der ESA reicht das aber noch nicht: Sie hat nun Studien in Auftrag gegeben für eine kleine Trägerrakete im Bereich der Rutherford also so um die 100-kg-Nutzlast. Mehrere europäische Firmen haben Kontakte bekommen. Die meisten offerieren sogar mehrere Raketentypen, MT Aerospace sogar vier. Ich halte das für überflüssig. Es würde vielmehr ausreichen, wenn man die Ressourcen ausschöpft, die man heute hat. Das sind Sekundärnutzlasten bei Sojus und Vega. Beide haben mehrfach zündbare Oberstufen. Die Vega hat schon demonstriert, wie sie mehrere Satelliten in verschiedenen Orbits aussetzen kann. Nur ist das derzeitige System eben für einer großen oder zwei mittelgroße Einzelnutzlasten ausgelegt. Ein System von mehreren Ringen um den konischen Nutzlastadapter könnte Cubesats aufnehmen. Für größere Satelliten müsste man was Neues entwickeln, am geschicktesten wohl eine Mittelsäule, auf der man oben den Hauptsatelliten anbringt und an der Seite dann die Mikrosatelliten. Das wäre viel sinnvoller als eine neue Trakete zu entwickeln, auch wenn man sich mal die bisherigen Starts der Vega betrachtet – die wenigsten haben die Nutzlast wirklich voll ausgenutzt. Dabei wird die Vega C ja noch leistungsfähiger. Genauso wäre es wichtig so was für die Ariane 6 zu entwickeln, hier wohl eher als ein System, das man am Nutzlastadapter anbringt – hier gibt es wegen der viel größeren Verkleidung auch mehr Platz für Sekundärnutzlasten. Die Ariane 62 wird zahlreiche Missionen in den SSO durchführen und könnte dabei immer Sekundärnutzlasten mitführen. Wir brunchen nicht wirklich einen eigenen Miniträger, zumal wie oben beschrieben es ja einige Systeme in der Entwicklung gibt und damit auch viel Konkurrenz. Zur Elektron und SPARK kommt bald noch LauncherOne von Virgin Galactics hinzu. Etwa 30 Systeme gibt es in den unterschiedlichen Stadien der Umsetzung. Selbst die OTRAG-Rakete ist als Neptun noch dabei.

Zuletzt gibt es natürlich noch den PR-Start des Monats, den der Falcon Heavy. Wer nun viel von mir über die Rakete erwartet den muss ich enttäuschen. Ich habe schon viel drüber geschrieben und will mich nicht wiederholen. Nur einige Dinge. Es war ein reiner PR-Start. Dazu gehört zuerst mal, die Erwartungen runterzuschrauben. Musk sprach von 50 bis 70 % Chance, dass er klappt. Das ist natürlich Blödsinn. Die Rakete basiert ja auf der schon im Einsatz befindlichen Falcon 9. Da erwartet man eine viel höhere Erfolgsquote. Vor allem würde diese Quote – sie entspricht dem Bayes-Kriterium für den ersten oder zweiten Start einer völlig unerprobten Rakete, bedeuten, dass der nächste Start dann auch nur zu 70-80% gelingt und der ist ja schon kommerziell. Raketen, die so niedrig eingeschätzt werden, haben oft etliche Teststarts, die Ariane 1 z.B. vier, das Space Shuttle sechs. Die Nutzlast hat bei mir einen Eintrag bekommen – als überflüssigste interplanetare Nutzlast. Den Rekord hielt der DESPATCH, mit Hayabusa 2 gestartet bisher. Das war ein Kunstwerk, aber immerhin noch eines mit einem Sender. Der Roadster ist eigentlich nur Ballast.

Worüber die Publicity hinwegtäuscht: Die Rakete ist zwar die größte, aber auch überflüssigste weltweit. Es gibt keine Nutzlasten für sie. Selbst wenn alle drei Booster geborgen werden und die Nutzlast dann stark absinkt ist sie inzwischen überflüssig. Mal gedacht als schwere Schwester der Falcon 9, ist diese durch Verbesserungen inzwischen leistungsfähig genug für alle kommerziellen Transporte. Übrig bleiben einige Regierungsnutzkasten – sehr schwere Satelliten oder Satelliten die in den GEO müssen. In den sinkt die Nutzlast der Falcon 9 durch die 4 t Leermasse der Oberstufe und die Bahnneigung der Startbahn von knapp 28 Grad stark ab. Doch selbst für die großen Regierungsnutzlasten ist sie nur bedingt geeignet. Aufgrund der Idee, aus der ursprünglichen Falcon 9, die nur 54 m lang war durch Verlängerung den heutigen 70 m Spargel zu designen, hat die Falcon Heavy wie die Falcon 9 nur eine 13 m lange Nutzlastverkleidung. Das reicht für einen Satelliten aber nicht für einen Doppelstart und sie ist zur kurz für die ganz großen Satelliten der NRO. So verzeichnet SpaceX selbst auch nur wenige Starts. Es gab auch keinen Zuwachs in den letzten Jahren, anders als bei der Falcon 9 die schon vor dem ersten kommerziellen Start genügend Kunden hatte.

Im Gegenteil: Es wird keine bemannten Starts mit der Falcon Heavy geben. Damit steht auch der bemannte Start, angeblich Ende dieses Jahres, auf der Kippe. Die sollen nun alle mit der BFR erfolgen. Dumm nur: die gibt es nur auf dem Papier. Sie wird aufgrund ihrer Größe um ein Vielfaches teurer als die Falcon Heavy sein und schon diese einfache Kopplung bestehender Stufen brauchte 5 Jahre mehr als geplant zur Umsetzung. Bei der BFR geht das natürlich alles viel schneller. Klar genauso schnell wie bei der Falcon 9: Versprochen am 5. April 2011 für einen Erststart Ende 2013... Meine Prognose. Die Falcon Heavy wird sich in zwei bis drei Jahren in die Reihe der abgebrochenen SpaceX-Projekte einreihen wie Falcon 1e, Falcon 5, Falcon 9 Block II, Falcon 9 Heavy, Red Dragon, Dragon-Landlandung …

Tesla hat die PR-Aktion nichts genutzt. Zwei Tage später musste die Firma erneut Verluste bekannt gegeben. Der Kurs ist am Freitag um 8,28 % eingebrochen. Die Firma hat eine Fremdkapitalquote von 85 % und Verbindlichkeiten die doppelt so hoch sind, wie der Jahresumsatz 2017. Wie bei der Falcon Heavy & BFR wird aber für die Zukunft Besserung versprochen. 2018 soll Gewinn gemacht werden. Wer die Bilanz von Tesla verfolgt weiß, warum Musk sich so beharrlich weigert, an die Börse zu gehen, dann würde bekannt, wie hoch Umsatz, Erlöse und Verbindlichkeiten von SpaceX sind.

Immerhin drei neue Rekorde hat die Falcon Heavy aufgestellt: den für die überflüssigste Nutzlast, für die überflüssigste Rakete und das meiste Medieninteresse 2018. Das ist für Musk wohl wichtiger als Finanzeller Erfolg.

 

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99