Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 445: 20.12.2015 - 27.12.2015

20.12.2015: Der PC in Zwanzig Jahren

Lange Zeit war es so, dass wenn man etwas über den PC in Zwanzig Jahren wissen wollte, man nur die Architektur der aktuellen Superrechner ansehen musste. Das passte auch in der Vergangenheit relativ gut. Hier einige Beispiele. Als PC-Gegenstück habe ich die x86-Architektur genommen. Es kann sein dass das eine oder andere Feature woanders zuerst erschien, aber die Architektur steckt eben in den aktuellen PCs:

Nicht nur in der Architektur, sondern auch in der Geschwindigkeit sind 20 Jahre ein guter Vergleichsmaßstab. So schnelle wie eine CDC 600 war ungefähr ein 80836 - zwischen beiden liegen 20 Jahre. Die Pentium CPU erreichte 1995 die Performance der Cray 1. Seitdem ist es durch den langsameren Anstieg in den Achtzigern und Neunzigern bei den Supercomputern sogar besser geworden. Die letzte Cray erreichte 16 GFLOPS, das war im Jahre 1993, ein iCore 5 mit 4 Kernen und 3 GHz Takt erreicht bei Vektoroperationen 48 GFLOPS, wenn es um eine besonders sichtige Operation "Fused Add/Multiply" geht, sogar 96 GFLOPS.

So gesehen müssen wir uns nur Supercomputer von heute anschauen, um zu wissen was uns in wenigen Jahrzehnten bevorsteht. Die bestehen heute aus Zehntausenden normaler Prozessoren mit Hundertausenden von Kernen, inzwischen auch durch Grafikkartenbeschleunigern ergänzt. Ich muss sagen, das ich an der Vision für die Zukunft in 20 Jahren bisher meine Zweifel hatte. Sicher wir haben die Gamer, die geben heute schon 100 bis 1000 Euro für eine Grafikkarte aus, deren leistungsfähige mehrere Tausend einzelne Recheneinheiten haben. Es gibt also schon heute eine Parallele zu den Supercomputern mit vielen Kernen. Was die Gamer aber gerne vergessen: Nur in 20% aller PC steckt eine Grafikkarte und ich würde wetten die Zahl der PCs bei denen es eine High-End Grafikkarte ist beträgt nur wenige Prozent. Dieser Prozentsatz ist seit über einem Jahrzehnt konstant.  Es erschien mir unverständlich warum dieser seit Jahren konstante Anteil nun  plötzlich so wachsen sollte. Zudem sieht man es an der Prozessorentwicklung. Als Intel 2005 die Mehrkernprozessoren einführte, kündigte die Firma an, dass es nun alle zwei Jahre doppelt so viele Kerne geben würde. Seit 2005 gab es 5 Zweijahreszyklen so sollte man 2^5 x 2 Kerne = 64 Kerne heute haben. Stattdessen beträgt im Desktopsegment die Maximalzahl nur 6 Kerne. Lange zeit waren es nur 2 bis 4.

Doch für 2017 Jahre sind 12 oder 20 Kerne angekündigt und zwar für die Desktop (iCore) Serie - Server haben heute schon bis zu 36 Kerne pro Chip. Dahinter steckt Intels Einsicht, dass sie die Core Mikroarchitektur kaum noch steigern können. Sie wurde 2006 eingeführt. Seitdem wurde sie nur marginal verbessert. Man bekam mehr Leistung vor allem indem man durch die Stromsparmechanismen wieder den Takt hochtreiben konnte. Doch Broadwell oder Skylake erreichen nicht die hohen Takte von Haswell, stattdessen gibt es bei Broadwell erst mal 6 Kerne in der iCore Serie und bei Skylake sind noch mehr angekündigt. Man betreibt  seit einigen Jahren auch viel mehr Aufwand um die integrierte Grafikeinheiten aufzurüsten, die haben tatsächlich in jeder Genration doppelt so viele Recheneinheiten bekommen.

Es gibt natürlich einen Grund für die Dominanz von 2-4 Kernen. In der aktuellen ct' mit einem Prozessorratgeber lese ich (mal) wieder (zum wiederholten Male) von den faulen Programmierern die es nicht fertig bringen alle Kerne auszulasten. Ja so kann man schrieben wenn man als Journalist selbst nicht programmiert. Das Problem sitzt aber vor dem Monitor, nicht in der CPU. Ein Prozessor wartet bei einem PC, aber auch Tablett oder Smartphone die meiste Zeit auf die Aktion mit dem Anwender. Die ist nicht vorhersehbar, und meist nicht parallelisierbar. Wer einen Text eintippt der wird nur einen Prozessor beschäftigen. der muss dann die Buchstaben als Grafik ausgeben. Sicher es gibt etwas nebenher zu tun, wie Rechtschreibung prüfen oder die Seiten formatieren, doch das beschäftigt auch heute kaum einen Prozessor. Lediglich der Duden Korrektor kann viel Zeit beanspruchen, vor allem wenn man wie ich Bücher schreibt und er beim Laden alles durchkorrigiert. Doch gerade der ist so geschrieben dass er nur einen Thread benutzt (ein Negativbeispiel). Wenn man surft kann man eine Seite weitestgehend nur linear kodieren, das liegt an der Struktur von HTML, das keine festen Layouts  kennt sondern sich an Bildschirmgröße und Skalierung anpasst. Aus demselben Grund ist JavaScript nur für einen Thread ausgerichtet, es macht wenig Sinn verschiedene dinge gleichzeitig zu ändern, wenn das Layout von Anfang an nicht feststeht sondern erst wenn alle Elemente bearbeitet sind, erstellt werden kann. Natürlich kann ein Browser im Hintergrund Seiten laden und aufbereiten, doch das ist mehr eine Notlösung, denn der Anwender wird nur einem von vielen Links folgen.

Übrig für Mehrkerncpus bleiben eine Handvoll von Vorzeigeanwendungen, die schon vom Design her multitaskingfähig sind wie Grafik (jeder Bildpunkt kann einzeln bearbeitet werden) Video (ein Bild wird in viele kleine 8x8 Pxielblöcke zerteilt die alle gleich verarbeitet werden) oder Spiele (jedes Objekt kann einzeln gerendert und eingefärbt werden).

Seit einigen Monaten habe ich diese Haltung "Es gibt keinen Grund noch mehr Kerne pro CPU einzubauen" geändert. Der Grund ist, das es in 20 Jahren meiner Ansicht wohl nur noch wenige PCs geben wird, wie sie heute da sind. Nein ich meine nicht, dass sie dann von Tabletts oder Smartphones ersetzt sind. Sie sind nur Geräte mit anderer Eingabe Methode, aber haben das technisch genauso das gleiche wie ein PC macht. Nein ich denke in der Zukunft wird viel mehr Power in den Geräten stecken, die heute gerade auf den Markt kommen. Das sind die Virtual Reality Brillen. Die funktionieren heute noch als Krückenlösung mit Smartphones als Display. Im Prinzip kann man damit das heute umsetzen, was wir vor 20 Jahren in Star Trek als "Holodeck" gesehen haben - man kann sich in einer virtuellen Realität bewegen. Zusammen mit einem Handschuh, der auch Feedback gibt, wenn man was anfasst kann das sehr real sein. Das kann man für Spiele nutzen, aber auch um einen Spaziergang durch das antike Rom zu machen oder Pairs zu besuchen ohne hinzufliegen. Virtual reality ist nicht neu. Es gibt es schon seit Jahrzehnten. Doch man brauchte entweder umgebaute Räume wo die Bilder an die wand projiziert werden oder wenn es Brillen gab, so waren sie niedrigauflösend und grob. Mit mehr Computerpowert kann man dies wirklich lebensecht gestalten. Und es ist eine Aufgabe, die hervorragend parallelisierbar ist.

Das zweite ist die Erprobung von Fahrzeugen im Straßenverkehr. Da gibt es jetzt die ersten Projekte. Die Aufgabe ist ja nicht trivial. Man muss in Echtzeit die Bilder von Kameras, aber auch anderer Sensoren analysieren, Straßengrenzen, Abstände, Menschen und andere Objekte feststellen und das Fahrverhalten anpassen. Der Computer hat es hier schwerer, als der Mensch. Denn wir nehmen nie die ganze Szene wahr. Wir konzentrieren und auf einen kleinen Punkt in der Mitte des Blickfeldes. der kann wechseln, wenn wir in der Peripherie Veränderungen wahrnehmen oder durch Geräusche unserer Aufmerksamkeit abgelenkt wird, aber wir nehmen den größten Teil des Gesichtsfeldes nicht aktiv wahr. Jeder kennt das: Fußgänger nimmt man erst wahr wenn sie auf die Straße gehen, auch wenn man sie schon vorher sieht, wenn ihr Kopf über die parkenden Autos ragt. Hier könnte ein computerbasiertes System deutlich sicherer sein. Auch diese Aufgabe braucht viel Rechenpower.

In solchen Geräten könnten in Zukunft die meisten der leistungsstarken Prozessoren stecken. PCs würde es auch in der Zukunft geben, vielleicht nicht mehr als Desktop sondern angeschlossen an eine solche Brille. Aber die stärksten Prozessorkerne mit vielen Untereinheiten werden nicht mehr im klassischen PC stecken.

23.12.2015: Meine Alternative zu 20% mehr Nutzlast

Aaron Kurz hat ja eine kleine Diskussion entfacht ob man wegen 20% mehr Nutzlast (bei gleicher Startmasse) eine neue Rakete konstruieren soll. Ich bin der Meinung wie die meisten: es lohnt sich nicht und zwar, weil die Entwicklungskosten einer Rakete so hoch sind. Selbst wenn wir SpaceX als Beispiel, das es deutlich billiger geht, nehmen: Die Falcon 9 kostete bis zur ersten Version 600 Millionen Dollar Entwicklungskosten. Seitdem hat man sie noch zweimal gestreckt und die Triebwerke getunt. Das hat sicher auch Geld gekostet. Vier Flüge (die ersten beiden der Falcon 9 und jeweils der erste der v1.1 und 1.2) waren Qualifikationsflüge wo man nur in zwei Fällen Geld bekam und das war nicht viel (Cassiope brachte 10 Millionen Dollar ein, Orbcomm zahlt für zwei Starts 42 Millionen Dollar). So ist es sicher nicht abwegig 1 Milliarde Dollar als Entwicklungskosten bis zur V1.2 anzusetzen. Lockheed Martin hat in den letzten Jahren zwischen 10 und 15% des Umsatzes als Gewinn verbuchen können (von SpaceX gibt, es da nicht börsennotiert ist, keine verpflichtend veröffentlichten Angaben). Übertragen wir das auf SpaceX und nehmen 15% Gewinn am Umsatz als höhere Zahl so macht der Konzern pro Falcon 9 Start (61,2 Millionen Dollar) 9,18 Millionen Dollar Gewinn. Die Firma müsste also 109 Falcon 9 starten (1000 / 9,18 Millionen) bis sie die Entwicklungskosten wieder hereinbekommt - und dies ohne Berücksichtigung von Verzinsung, die ein privates Unternehmen bei einem Kredit bezahlen müsste bzw. die es erhalten würde wenn es das Geld nicht für die Entwicklung ausgibt sondern anlegt. Bei staatlichen Entwicklungen ist das Verhältnis noch viel schlechter. Heute geht der Trend daher nicht dahin die Nutzlast zu steigern, sondern die Startkosten zu senken. Ariane 6 hat ja keine höhere Nutzlast als Ariane 5 aber sie soll eben preiswerter in der Herstellung sein.

So aber nun zum eigentlichen heutigen Thema. Ich lasse mich mal auf die Argumentation ein: "20% mehr Nutzlast sind ein berechtigter Grund eine neue Technologie einzuführen" und will zeigen, dass dies auch einfacher geht indem ich nur eine einzige Stufe leicht umrüste. Wer es spannend liebt, wartet nun bis er den Artikel ganz aufmacht und überlegt was ich meinen könnte...

Nun es gäbe einiges. Den gleichen Gewinn wie der Übergang von Kerosin auf Methan bringt der Übergang vom Nebenstrom auf Hauptstromverfahren. In beiden Fällen gewinnt man etwa 200 m/s beim spezifischen Impuls. Aber dann müsste man, um die 20% mehr Nutzlast zu bekommen auch bei allen Stufen machen. Mit nur einer Stufe bekommt man es auch hin und zwar wenn man eine LOX/LH2 Stufe auf LF2/LH2 umrüstet. LF2 ist flüssiges Fluor. Fluor ist das chemisch reaktivste Element das es gibt. Fluor reagiert mit Wasserstoff schon in der Kälte und Dunkelheit, mit wasserstoffhaltigen Verbindungen jeder Art (auch Wasser) reagiert es heftig indem es ihnen Wasserstoff entzieht. Mit organischen Stoffen entzündet es sich spontan. Die hohe Reaktivität hat - das mag erstaunen - den Vorteil das es umweltverträglicher als Kerosin ist. Kerosin, in den physikalisch-chemischen Eigenschaften in etwa Diesel oder schwerem Heizöl vergleichbar, entspricht der Freisetzung dieser Substanzen bei einem Unfall z.B. einem Tanklastwagen der umgekippt ist oder einer Ölpest. Fluor reagiert sofort mit allem. Wenn es auf Wasser auftrifft, bildet es Flusssäure, eine relativ schwache Säure und Sauerstoff. Die Flusssäure wiederum reagiert mit den Calciumionen im Wasser und bildet rasch schwerlöslichen Flussspat. Trifft es auf Land, so wird zuerst die Vegetation verbrannt, dann reagiert es im Erdboden mit den Tonmineralien und dem Wasser und bildet Flussspat und Fluorosilikate und Fluoraluminate - ungefährliche Mineralien. Es hat keinerlei Langzeitwirkung. Nächstes Jahr ist die Vegetation nachgewachsen und die Sache ist vergessen.. So ist es am ehesten in der Wirkung mit Feststofftriebwerken vergleichbar die auch Salzsäure als Reaktionsprodukt abgeben. Salzsäure ist sogar noch stärker als die aus Fluor entstehende Flusssäure

Die Frage ist natürlich, wie man bei dieser Reaktivität Fluor als Raketentreibstoff nutzen kann. Nun das geht verhältnismäßig gut, denn einige Metalle, Nickel aber auch Edelstahl bilden beim Kontakt mit Fluor eine Schicht aus Fluorid auf dem Metall, was dieses vor weiterer Reaktion schützt. Raketentriebwerke können daher in der Regel problemlos mit Fluor arbeiten. Das RL-10 und die Centaur Oberstufe wurden für den Fluoreinsatz untersucht. Ich habe leider in meinen Chemiebüchern nichts über die Reaktion mit Aluminium gefunden. Doch innendruckstabilisierte Tanks aus Edelstahl sind nicht schwerer als Alutanks, wie man an der Centaur sieht, die immer noch leichter als moderne LH2/LOX Stufen aus Aluminium wie DCSS, KVTK oder ESC-A/B, ist.

Warum sollte man nun Fluor einsetzen? Das erste ist ein leicht höherer spezifischer Impuls. Unter gleichen Bedingungen (Brennkammerdruck/Expansionsverhältnis liefert LF2/LH2 einen um etwa 200 m/s höheren spezifischen Impuls als LOX/LH2. Noch bedeutsamer ist aber eine zweite Tatsache: LOX/LH2 wird heute im Verhältnis 6:1 umgesetzt, den höchsten spezifischen Impuls bei LF2/LH2 bekommt man bei 14-15 zu 1. Das ergibt sich daraus, das Fluor nur einwertig ist, d.h. das stöchiometrische Verhältnis, bei dem beide Reaktionspartner vollständig umgesetzt werden, liegt bei 19:1, während es bei der Reaktion von Wasserstoff mit dem zweiwertigen Sauerstoff bei 8 ist. Raketentriebwerke arbeiten immer mit Wasserstoffüberschuss so ergibt sich das niedrigere Verhältnis von 14-15 bzw. 6 zu 1.

Die Folge: Der Wasserstoffanteil ist kleiner bei einer gegebenen Treibstoffmenge. Bei 15 zu 1 verglichen mit 6:1 z.B. nur 43,75%. Da Wasserstoff nur eine Dichte von 0,069 hat sind die Wasserstofftanks normalerweise dreimal größer als die Sauerstofftanks und entsprechend schwerer. Zusätzlich hat Fluor eine Dichte von 1,527 g/cm³ vergleichen mit 1,141 bei Sauerstoff, d.h. auch der Fluortank kann kleiner sein. Das spart eine Menge Gewicht ein.

Praktisches Beispiel: Bei der ESC-A wiegt der LH2 Tank 1,980 kg, der LOX-Tank trotz sechsfachem Treibstoffgewicht nur 220 kg. Würde man nun den LH2-Tank behalten, den LOX-Tank vergrößern, sodass er so viel Fluor aufnimmt damit man den Wasserstoff mit 14:1 verbrennt, so kommt man zu folgenden Zahlen:

Parameter ESC-A Fluor-ESC A
Startmasse nach Zündung: 18.159 kg 42.507 kg
Trockenmasse 3.300 kg 3.777 kg
davon LH2 Tank 1.980 kg 1.980 kg
davon Oxidatortank 220 kg 498 kg
Voll/Leermasseverhältnis: 5,5 zu 1 11,2 zu 1
Spezifischer Impuls 4364 m/s 4564 m/s (+200 m/s)

Ich gebe zu, die ESC-A ist wegen der extrem ungünstigen LH2-Tankform ein heißer Kandidat für einen Vergleich, doch auch bei normal geformten Tanks sinkt das Gewicht dieser (und sie machen meist zwei Drittel bis drei Viertel der Stufenmasse aus) um 45% ab. Bei obiger Betrachtung habe ich sogar 200 kg für ein zweites HM-7B und einen verstärkten Schubrahmen hinzuaddiert, damit das Schub/Gewichtsverhältnis erhalten bleibt.

Setzt man diese Stufe als Oberstufe auf eine Ariane 5 und kalkuliert die Nutzlast (bei gleicher Zielgeschwindigkeit), so steigt die GTO Nutzlast von 10.350 auf 15.700 kg, also um 51%. Das ist viel mehr als LOX/Methan erreicht und nur indem ich eine einzige Stufe umgerüstet habe! So lohnt es sich wirklich.

24.12.2015:

Zu Weihnachten habe ich mir einen kurzen Blog ausgesucht, mit einem im weiteren Sinne besinnlichen Thema rausgesucht. Diesen Januar startete mit über einem Jahrzehnt Verspätung die Raumsonde DSCOVR. DSCOVR geht zurück auf eine Aufnahme die der damalige Vizepräsident Al Gore sah. Diese wurde von Apollo 17 am 7.12.1972 auf dem Weg zum Mond gemacht. Dieses als "Blue Marble" bekannte Bild inspirierte ihn dazu eine Raumsonde vorzuschlagen die dauernd ein solches Bild machen sollte, welche die Menschheit an die Zerbrechlichkeit des Planeten erinnern sollte.

Es kam wie so oft: die billige Sonde wurde wissenschaftlich aufgewertet und teurer, der Start mit dem Space Shuttle entpuppte sich als teurer als gedacht und so wurde sie vor ihrem Start für unbestimmte Zeit eingelagert.

Erst als die USAF nach Erprobungsstarts für Falcon 9 und Falcon heavy suchte um Einblick in den Träger und Qualifikationsflüge für eine Zertifizierung zu bekommen änderte sich dies. Die USAF zahlte für den Start. Die NOAA brauchte auch Ersatz für einen überalterten Satelliten der die Aktivität der Sonne überwacht und hier waren die anderen Instrumente der Sonde ein Glücksfall. So zahlt die NOAA für den Betrieb.

Im Januar startete die Sonde, seit Mai ist sie operationell. Später ging auch die Webseite online, die dem eigentlichen PR-Zweck nachkommt. Seitdem habe ich sie gebooktmarkt und sie ist einer meiner Startseiten. Man kann wirklich einiges sehen. Für mich ausschlaggebend ist nicht so sehr der Blue Marble Effekt, sondern die Veränderung der Sicht. Man sieht von den Polen Wellen ablösen, in nicht so hohen Breitengraden werden daraus Wirbel wie Hochs und Tief, am Äquator ist es dagegen weitgehend frei von Wirbeln. Das sind grundlegende Strömungen unserer Atmosphäre. Die kann man mit den Bildern sinnlich erfassen. Über die Zeit hinweg sieht man auch die Jahreszeiten. Dazu hier drei Aufnahmen:

Erde am 18.6.2015

Das ist der Blick auf die Erde mit Europa in etwa in der Mitte am 18.6.2015, nahe des Sommeranfangs der am 21.6. ist. Man sieht deutlich den Nordpol, Europa steht gut ausgeleuchtet  zentral da und Afrika driftet nach unten ab und Südafrika driftet fast ab ins Dunkel. Am 21.6 steht die Sonne senkrecht über dem nördlichen Wendekreis und damit hat sie den nördlichsten Stand erreicht, der im Jahr möglich ist. der Tag korrespondiert auf der Nordhalbkugel mit der längsten Tageslänge, oberhalb des nördlichen Polarkreises, also bei etwa 66,5 Grad nördlicher Breite geht sie an diesem Tag gar nicht mehr unter. Das drückt sich in dem Bild darin aus, dass der Nordpol nicht am Bildrand sondern deutlich unterhalb ist, egal wie sich die erde dreht - am Nordpol herrscht immer Tag. Umgekehrt sieht es bei der Südhalbkugel aus. Hier sind die Tage kürzer, um so kürzer je weiter südlich man kommt. Die Antarktis ist auf dem Foto nicht zu sehen - sie liegt zu diesem Zeitpunkt dauernd im Dunkeln.

Danach wandert der Punkt wo die Sonne senkrecht am Himmel steht südwärts und erreicht am 21 September den Äquator. Es herrscht Tag und Nachtgleiche: An einem Tag (bzw. nochmal ein halbes Jahr später) steht die Rotationsachse der erde senkrecht auf der Bahnebene und überall auf der erde sind die Tage gleich lang, man bekommt die Beleuchtungssituation wie man sie auch von den Karten kennt:

Erde am 22.9.

Die Position der Sonne wandert weiter nach Süden und erreicht am 21/22.12. den südlichsten Punkt, wo sie nun bei 23 Grad südlichster Breite senkrecht im Zenit steht. Nun ist die Situation genau anders herum: die Südhalbkugel wird gut beleuchtet, der Norden ist am Rand und die nördlichen Gebiete liegen am Rand und sind dunkel. Der Nordpol ist nicht mehr zu sehen, dafür die Antarktis in ihrer ganzen Pracht.

Erde am 22.12.

Ich denke die Bilder sprechen für sich. Auch was ich meinte über die Wetterphänomene. Man sieht sehr deutlich dass die vom Breitengrad abhängen. Rund um den Äquator gibt es z.B. diese aufgelockerten Wirbel, man bekommt mit warum die Sahara aber auch arabische Halbinsel Wüsten sind - dorthin verirren sich allerhöchstens mal ein paar Wolken.

Allerdings hat die Website noch ein deutliches Verbesserungspotential. Egal um welche Zeit ich sie ansehe, ich sehe immer Australien, ich vermute als Standard den 180 Grad Längengrad als Standard Sicht, bei dem ein Tag anfängt. Besser wäre die letzte Aufnahme, so könnte man über den Tag die Erde rotieren sehen. Das ist das größte Manko. Denn die Website ist nicht aktuell. Das ich die Aufnahme vom 18.6 genommen hat einen Grund - es gibt keine vom 21.6. Auch jetzt sah man lange Zeit nur die Aufnahmen vom 16.12, bis gestern dann wieder einige Tage nachgereicht wurden. Es ist kein aktueller Blick auf die erde sondern maximal der von gestern. Die Zahl der Aufnahmen pro Tag ist auch unterschiedlich mal sind es 13, mal nur 1 oder eben gar keine. Das verwundert, denn die Sonde ist an ein Realzeitnetzwerk angeschlossen. Zumindest ihre Daten über die Sonnenaktivität werden laufend empfangen und ausgewertet und automatisierte Alarme verschickt. Da fällt es schwer, dass dies bei den Bildern nicht klappt, vor allem wenn im Budget 4,8 Millionen Dollar für Education und Outreach angesetzt sind. Für so viel Geld sollte man eigentlich eine bessere und aktuellere Webseite erwarten können. Vor allem hätte ich mir mehr Bilder gewünscht, was sicher auch mit einer etwas größeren Antenne möglich gewesen wäre, so weit ist die Sonde ja nicht weg. So eine Aufnahme alle 10 Minuten - das wären 144 Frames pro Tag die man zu einem knapp 7 Sekunden langen Film kombinieren kann - die richtige Länge für das heute Publikum, das ja wenig Zeit und Aufmerksamkeit hat und ideal geeignet als Einspieler für die Nachrichtensendungen anstatt dem monotonen Blick ins Studio in den letzten Sekunden, dafür tagesaktuell.

27.12.2015: Nachlese zum Orbcomm 2 Start

Eigentlich wollte ich mich ja voll auf mein Buch konzentrieren, doch da ich derzeit sowieso sehr gefrustet über die chinesischen Trägerraketen und die mageren und widersprüchlichen Daten zu ihnen bin, widme ich mal dem Thema an dem ihr auch gerade diskutiert. (wie sich später zeiegn wird, sind die Chinesen ja geradezu freizügig mit den Informationen verglichen mit SpaceX - dafür werfen sie mit Bezeichnungsnebelkerzen um sich).

Die Landung der Falcon 9.

Das ist natürlich nicht an mir vorbeigegangen. Ich will das Thema auch nicht totschweigen, ich halte die Landung nur nicht für so wichtig. Wichtig wäre die Wiederverwendung und ob die wirtschaftlich ist. Doch kommen wir zuerst mal zu einer Einschätzung, der technischen Leistung.

Was SpaceX erreicht hat, ist eine Raketenstufe nach der Abtrennung erneut zu zünden, die Flugbahn umzukehren und präzise auf einer Plattform zu landen ohne umzukippen. Das sie das schaffen würden, ist mir klar gewesen, denn es hat ja schon vorher auf See fast geklappt, nur eben nicht mit dem Landen ohne umkippen. An Land ohne schwankende Plattform geht das vielleicht sogar einfacher. Das ist auch nicht so technisch schwierig. Schon 1967 landeten die Surveyor durch einfache Rückkopplung von Radardaten mit den Triebwerken sanft auf dem Mond. Zwei Jahre später konnten die Lunar Modules schon präzise auf einem Punkt landen, und das mit einem Computer von der Leistung eines IBM PC (von 1981, nicht heute!). Die Space Shuttles landeten vom Orbit aus (das heißt bei größerer Eintrittsgeschwindigkeit, größerem Abstand und mehr Störgrößen) präzise auf einer Startbahn - im Unterschied zu der Falcon 9, ohne aktive Triebwerke, die die Bahn korrigieren.

Und heute haben wir GPS, leistungsfähige Computer welche in Sekundenbruchteilen alle Störgrößen ermitteln und eine neu Bahn berechnen und Aktionen durchführen können. Alles Dinge die man bei den Space Shuttles und LM nicht hatte. Man sollte also annehmen, das SpaceX das hinkriegt. Zuletzt wurden sie von Blue Origin um einen Monat geschlagen. Bevor jemand aufheult: ja das ist vergleichbar. Die Abtrenngeschwindigkeit der Falcon 1  Erststufe ist nicht höher als die Geschwindigkeit, die man braucht um 100 km Höhe zu erreichen. Beides ist eine suborbitale Bahn.

Das wirklich interessante ist doch ob es wirtschaftlich ist. Mit diesem Flug gibt es erstmals dazu Zahlen, auch wenn ich das schon mal vor Jahren geschätzt habe und auf 20% Nutzlasteinbuße kam. Inzwischen werden 30% genannt, da war ich nicht so schlecht, doch rechnen wir mal nach.

Das Hauptproblem ist, dass die erste Stufe bei Abtrennung eine vertikale Geschwindigkeit hat die sie weiter in die Höhe beschleunigt und eine horizontale, welche ihr Anteil an der Orbitalgeschwindigkeit ist. Nimmt man das Video, so hat die Stufe bei 2:24 Minuten bei 6000 km/h in 74,8 km Höhe Brennschluss. 6000 km/h, das sind lediglich 1666 m/s. Offen ist ob dies die Geschwindigkeit relativ zur Erdoberfläche oder nur horizontal ist. Das letztere wäre eine Vektoraddition aus vertikaler und horizontaler Geschwindigkeit. aber selbst im günstigsten Falle ist das eine sehr niedrige Abtrenngeschwindigkeit. Beim Suchen bei anderen Videos von SpaceX-Starts ohne Landung fand ich leider keines mit eingeblendeten Geschwindigkeitsdaten (die von den anderen Landeversuchen kann man nicht nutzen, weil wir ja vergleichen wollen ohne Wiederverwendung - mit Wiederverwendung). Aber es gibt eine wichtige Information: Die Stufe wird nach dem Video bei 144 s abgetrennt. Da sieht man das verlöschen der Triebwerke, eine Sekunde später dann Jubel und Kommentar dazu. (Das Presskit weist sogar 2:20 aus, also nochmal 4 s weniger, abgehoben hat sie nach Video aber bei t:0.

Die Brennzeit der Triebwerke wird mit 162 s angegeben. Bei der Falcon 9 v 1.1 wurden sie in den letzten 30 s langsam auf 70% heruntergefahren. Wenn wir das auf die Falcon 9 v 1.2 übertragen so wäre das nach 139 s der Fall,  Allerdings ist die Oberstufe größer und so kann man annehmen, dass sie noch mit 100% arbeiten, ich habe im Video zumindest beim Kommentar nichts von einem Throtteling gehört. Dann wurden (162-140) s x 7426 kN Schub verschenkt, das sind 163,4 GJ. Das passt recht gut zu dem Artikel von Musk auf der SpaceX Webseite welche den Energieunterschied einer Landung auf See und der auf Land mit 180 GJ angibt. Auch interessant ist das der Geschwindigkeitsunterschied 3000 km/h oder 833 m/s ist - wohlgemerkt auch bei einer See Landung, die auch etwas Treibstoff erfordert.

180 GJ entsprechen bei dem Vakuumimpuls (der liegt in 70 km Höhe vor) von 3050 m/s rund 59 t Treibstoff. Ich habe nun (mit da von SpaceX nichts bekannt ist geschätzten Stufendaten) dies simuliert. Die Daten habe ich von SpaceX, der Wikipedia und eben Berechnungen. Die v1.2 habe ich mit den ursprünglichen 16.150 kg Nutzlast angesetzt, die mal auf der SpaceX Webseite standen, nun findet man 13.150 kg, doch sollen die für wiederverwendete Raketen gelten (der nächste Start wird z.B. 5300 kg in den GTO entsenden und das Maximum nach Webseite ist 4850 kg). Doch wie sieht es aus wenn man zur Stufenmasse der ersten Stufe die 59 t Treibstoff hinzurechnet, die nicht verbraucht wurden? Nun die Nutzlast sinkt nicht nur um 30%, sondern bedeutend stärker, bei gleicher Endgeschwindigkeit auf 9,6 t.

Woher die Diskrepanz zu den SpaceX Werten? Nun die Orbcomm Satelliten sind extrem leicht. Es sind 11 Satelliten, jeder wiegt 380 amerikanische Pfund, das sind nicht mal 1900 kg Nutzlast. So kann man es sich leisten viel mehr Treibstoff in der ersten Stufe zu lassen als man für die Landung braucht, weil die zweite eine viel leichtere Nutzlast hat. Man kann damit rechnen, dass es in der Praxis weniger sein werden. Ansonsten könnte man wirtschaftliche Aspekte gleich begraben. Wenn die Nutzlast von 16,15 auf 9,8 t einbricht so sind das 40%. Mit 59 t Treibstoff könnte die stufe bei den von mir geschätzten 25 t Leergewicht um 3700 m/s - ändern das ist weitaus mehr als die doppelte Geschwindigkeit bei der Abtrennung.

Man kann sich dem Problem auch anders nähern - nach Elon Musks Angabe ist die Abtrenngeschwindigkeit bei der Seebergung um 3000 km/h geringer - die 3000 km/h muss also die Oberstufe aufbringen. Addiert man die nun zur Orbitalgeschwindigkeit 833 m/s (=3000 km/h) hinzu und berechnet dann die Nutzlast neu, so sinkt sie von 16.150 auf 10.783 kg ab - auch mehr als 30%.

Nebenbei bemerkt rechnet SpaceX nicht damit dass jemand die Nutzlast ihrer Falcon 9 ausschöpft. Seit ein paar Wochen gibt es einen neuen Payload Users Guide. es gab mal einen für die Falcon 9, der verschwand wieder und nun wieder ein neuer. Er liefet nur wenig, was nicht auf der Webseite steht, also nicht so was "brisantes" wie Stufenvoll- und Leermasse oder spezifischen Impulse anhand deren man selbst rechnen kann, ohne Detektiv spielen zu müssen. Aber eine Angabe gibt es: Kein Nutzlastadapter von SpaceX trägt mehr als 10.886 kg. (S.15). Da die beiden Zahlen recht eng beieinander liegen, würde ich auf 10,8 t als Nutzlast für eine wiederverwendbare Falcon 9 tippen.

Nebenbei bemerkt: es muss sich einiges im Design des Trägers geändert haben. Musk hat ja mal Strukturfaktoren von 30 für die erste Stufe und 25 für die Oberstufe genannt. Ich habe die Falcon 9 bei anderen Trägern üblichen Faktoren modelliert. Setzt man die Faktoren von Musk ein, und normale 1800 m/s Differenzgeschwindigkeit zum Orbit, (Eher zu hoch für eine nur zweistufige Rakete die bis zu 6 g beschleunigt) so müsste die erste Stufe bei Abtrennung noch 84 t wiegen, bei 14,4 t Leermasse, also ihre Geschwindigkeit um mehr als 5378 m/s ändern können - viel zu viel, selbst für eine Bahnumkehr. Bei dem Strukturfaktor 30/25 betrüge die theoretische Nutzlast ohne Wiederverwendung 21,6 t LEO und 7,8 t GTO. Also entweder ist die Rakete sehr viel schwerer als von SpaceX reklamiert oder die Wiederverwendung kostet enorm viel Nutzlast. (nach dem Bericht kostet ja schon die Seebergung 15% Nutzlast)

Neben der Nutzlasteinbuße gibt es natürlich noch eine zweite Frage - die der Wirtschaftlichkeit. Nach Äußerungen von Musk kostet die erste Stufe <75% der Kosten der Rakete. Das sind aber nicht die Startkosten, die schließen auch Gewinn und Startdurchführung ein. Letzteres macht bei Arianespace ungefähr 15-20% der Gesamtkosten aus. Nehmen wir 25% zusammen mit dem Gewinn, die Firma will ja auch was verdienen bzw. muss in neue Weltraumbahnhöfe investieren, so sind das bei 61,2 Millionen Dollar <34.42 Millionen Dollar, in etwa die gleiche Summe kommt raus wenn man vom Startpreis der Heavy (128,5 Mill.) den der Falcon 9 abzieht und durch zwei teilt (denn die hat ja bekanntlicherweise zwei Erststufen mehr) - das sind dann 33,65 Millionen Dollar. Also so um die 33 bis 35 Millionen Dollar kostet sie. Würde man sie unendlich oft wiederverwenden können und das Aufarbeiten würde nichts kosten, dann wäre die Wiederverwendung also um etwa 40% billiger, allerdings eben auch einhergehend mit Nutzlasteinbußen. Sicher im Normalfall nicht so hoch wie diesmal, aber lassen wir es mal 30% sein, die Zahl haben auch ULA und Airbus bei ihren Konzepten als Vergleich genannt dann ist Wiederverwendung eben nur noch um 10% billiger.

Das ganze hat aber noch zwei andere Aspekte. Das erste ist die Inspektion/Reparatur. Die unterscheidet sich deutlich von der Fertigung. wer einmal ein Gerät zum Reparieren gegeben hat weiß ein Lied davon zu singen. Es ist teuer etwas schon fertiges auseinander zu bauen und dann etwas zu ersetzen. Bei der Produktion muss man das überprüfen was man gerade gemacht hat, man kommt in der Regel noch überall heran und baut die Dinge die Zugänge versperren erst zuletzt sein. Bei einer Inspektion, selbst ohne Reparatur wird man viel auseinander nehmen müssen, Dinge untersuchen die man bei der Produktion nicht untersucht (z.B. bei den Tanks ob nicht nur die Schweißnähte in Ordnung sind sondern auch die einzelnen Platten aus denen die Tanks bestehen). Paradebeispiel war das Space Shuttle bei dem man diesen Wartungsaufwand enorm unterschätzt hatte.

Das zweite ist, dass keine Hardware ewig hält. Normale Raketentriebwerke die nicht auf Wiederverwendung getrimmt sind, werden in Prüfständen auch länger betrieben als normal. Ihre Lebensdauer beträgt meist zwischen dem 5 und 10-fachen der Sollbetriebsdauer. Die SSME kamen auf 55-Zyklen, waren dafür aber auch sehr teuer. Pläne von anderen Firmen für die Wiederverwendung haben, sehen einige Zyklen (bis zu 7) vor. Das heißt 1/7 der eingesparten 36 Millionen wird man für neue Hardware hinzuaddieren müssen und schon nähert man sich 0% Gewinn.

Das hat übrigens noch eine zweite Folge: SpaceX strebt ja Massenproduktion an, nach der wikipedia (unter Produktion nachschauen) wollen sie 400 Stück Merlin pro Jahr bauen (im Oktober 2014 waren sie aber nur bei 4 pro Woche, also bei 50 Arbeitswochen maximal 200 Stück oder 20 Cores pro Jahr). Wenn nun 9/10 der Triebwerke wieder verwendet werden sollen, dann sinkt die Produktion beträchtlich und der Preis der Triebwerke steigt an. Bei Wiederverwendung wäre ja schon der Produktionsstand vom Oktober 2014 zu hoch. Mit 200 Triebwerken pro Jahr könnte man dann 200 Raketen starten da man nur eines pro Oberstufe braucht, die unteren sind ja beliebig oft wiederverwendbar. Selbst bei 7-maliger Verwendung würde das für 87 Träger pro Jahr reichen Nimmt man die noch kleinere Zahl der bei SpaceX absolvierten Tests (4-fache Lebensdauer) so sind es über 60 Träger pro Jahr, das bedeutet die Produktion ist heute schon völlig überdimensioniert und erzeugt so unnötige Kosten.

Zuletzt noch ein Ausblick, warum ich dem ganzen nicht so sehr glaube. Nach Musk sollen die Flüge ja später nicht nur ein bisschen billiger werden, sondern wirklich billig: um den Faktor 100. Da nach eigener Aussage aber die Treibstoffe 0,3% des Preises ausmachen, muss der Rest nur noch 0,7% der heutigen Kosten ausmachen und zwar bei gleich hoher Nutzlast, sinkt sie ab, so gibt es bei gleich bleibenden Treibstoffkosten immer weniger Spielraum. Sinkt die Nutzlast z.B. um 30%, so darf die Rakete nur noch 0,4% der heutigen Kosten ausmachen. Bei 70% Nutzlasteinbuße muss sie sogar umsonst sein. 70% Nutzlasteinbuße sind aber nicht utopisch wenn man auch die Oberstufe wiederverwenden will. Bei Kistler rechnete man mit 4,6 t Nutzlast bei ihrer voll wiederverwendbaren Rakete von 385 t Startmasse - Die Falcon 9 v1.1 transportiert bei 505 t Startmasse (+31%) 13,15 t Nutzlast (+282%).

Nun gibt es außer der Hardware auch andere Kosten. Der Transport, die Bergung, Inspektion das kostet. Die gesamte Startvorbereitung und Miete für den Startplatz muss man auch zahlen. Wenn man heute schon für die Startvorbereitung einen größeren Anteil der Gesamtkosten ausgibt, dann muss die komplett anders verlaufen als heute. Ich halte solche Aussagen für reine Spinnerei. Nimmt man noch die Geheimnistuerei um alles was SpaceX macht, dazu dann bewirkt das zumindest bei mir, das ich auch anderen Aussagen keinen Glauben schenke. Wenn alles so toll ist, warum erfährt man dann nicht mehr Details - über Massen, Bahnänderungen, wie genau die Landung ablief. Mit Firmengeheimnissen hat das nichts zu tun, den andere Firmen wollen wenn überhaupt andere Konzepte umsetzen und nur die Triebwerke bergen oder gleitend eine Stufe bergen, eventuell noch mit Düsenantrieb.

Wie immer: wenn jemand mit eigentlich nicht so wichtigen Informationen zurückhält auf der anderen Seite völlig überzogene Erwartungen schürt, dann kann ich dem nicht glauben, das hat viel mit Ehrlichkeit und Offenheit zu tun. Daher bleibe ich skeptisch. Aber wir werden sehen. Die Stufe wird nun ja inspiziert werden, und wenn es geht erneut fliegen und da wird ein Kunde sicher einen rabatt aushandeln wollen. Mal sehen wie viel das ausmacht. Dann sind wir alle schlauer.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99