Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 555: 19.5.2019 - 

19.5.2019: Ein Monat mit der PV-Anlage

Heute ist der erste Monat vorbei, in dem meine PV-Anlage Strom liefert, wenn auch erst seit dem 7.5.2019 er bezahlt wird. Zeit eine erste Bilanz zu ziehen. Gewonnen habe ich nun im ersten Monat 782,2 kWh. Natürlich ist das nicht repräsentativ, aber wer mal eine Anlage plant, wird feststellen, dass es massive Unterschiede in den Prognosedaten gibt. Daher war ich daran interessiert, eine Ertragsprognose für das Jahr zu bekommen. Vor allem „Online Rechner“ die mehr oder weniger kommerziell sind, mit dem Ziel an Vermittlungen zu verdienen sind überoptimistisch. Ich habe mich im Folgenden auf das PV-System der EU (PVGIS: PHOTOVOLTAIC GEOGRAPHICAL INFORMATION SYSTEM) bezogen, das es aber auch in zwei Versionen gibt und es gibt mehrere Datenbanken, die man in den beiden Versionen selektieren kann. Das macht es nicht einfach. Hier mal ein Vergleich der Prognosen für meinen Ort, meine Dachneigung und Ausrichtung bei 7,1 kWP (genau sind es nach den Lieferzertifikat 7.197 Watt Peakleistung, doch da man das nicht eingeben kann, habe ich nach unten abgerundet, gekauft habe ich eine 6,9 kwP Anlage doch die Plus-Zertifizierten Module liefern 4,1 % mehr).

Datenbank

Gesamtertrag

Davon Mitte April/Mai

PVGIS-Cosmo

8077 kWh

962 kWh

PVGIS-ERA5

7510 kWh

895,5 kWh

PVFGIS-SARAH

7080 kWh

823 kWh

PVGIS-CMSAF

6910 kWh

839 kWh

PVGIS-CMSAF (V4)

6880 kWh

818,5 kWh

PVGIS-CLASSIC

6120 kWh

725 kWh

Die Datenbanken unterscheiden sich in der Herleitung der Daten, der räumlichen Auflösung und des Zeitraums. Die am höchsten aufgelöste Datenbank und mit dem kürzesten Zeitraum ist die Cosmo. Sie liefert auch die „günstigste“ Prognose. Das korrespondiert mit Medienberichten, dass durch den Klimawandel es auch mehr Sonnenstunden gibt, also PV-Anlagen finanziell immer attraktiver werden.

Ein weiterer, aber wichtiger Punkt, den diese Datenbanken nicht berücksichtigen, ist die 70%-Kappung per Gesetz in Deutschland seit 2012.

Die beiden Berechnungen von Anlagenbauern, die ich im Vorfeld hatte, waren 6.060 kWh/Jahr und 6.405 kWh/Jahr. Das liegt also deutlich unter den Prognosen nach Datenbank.

Die Differenzen zwischen den Datenbanken werden aber kleiner, wenn ich die gewonnene Strommenge mit dem Mittel aus April/Mai nach den Datenbanken vergleiche. Mittel, weil eben der erste Tage mit voller Leistung am 19.4.2019 gerade in der Monatsmitte liegt. Bildet man den Quotienten aus Monatsertrag und theoretischem Ertrag nach der Datenbank und multipliziert man das mit dem theoretischen Jahresertrag, so hat man eine erste Schätzung:

Datenbank

Gesamtertragsprognose basierend auf 782,2 kWh

Mittel April/Mai

PVGIS-Cosmo

6567,39

962 kWh

PVGIS-ERA5

6556,16

895,5 kWh

PVFGIS-SARAH

6729,01

823 kWh

PVGIS-CMSAF

6442,2

839 kWh

PVGIS-CMSAF (V4)

6570,86

818,5 kWh

PVGIS-CLASSIC

6602,85

725 kWh

Diese Schätzungen liegen gar nicht mehr so weit auseinander zwischen 6442 und 6729 kWh. Also sogar eher mehr als die Prognose der Anlagenbauer. Im Mittel sind es 6577 kWh/Jahr, was auch ganz gut zu drei der Prognosen passt.

Ich hoffe im Jahr auf mehr, weil ich die vergangenen 30 Tage als untypisch betrachte. Es war sehr oft der Himmel bedeckt, obwohl nicht mal so viel Regen gefallen ist und es war zu kalt.

Inzwischen macht mein Ziel „kohlendioxidfrei zu werden“ Fortschritte. Ich habe gestern Fotos von der Montage meiner zweiten Anlage, nun auf meinem Ferienhaus mit 9,92 kWP, bekommen. Sie dürfte Anfang Juni ans Netz gehen. Inzwischen bin ich bei zwei Bürgerenergien mit 11.000 € beteiligt und der Strom ist auf Ökostrom umgestellt, was zum 1.8. einritt. Damit dürfte ich zu dem Zeitpunkt „kohlendioxidneutral“ sein. Ein Ziel, wofür die BRD nach Merkels Willen 60-mal länger braucht. Ich plane trotzdem noch den Kauf von Indexzertifikaten auf CO2 Emissionsrechte. Das ist der FDP-Weg für den Kohlendioxidausstieg. Zum einen, weil das Geld bei den Bürgerenergien zuerst mal nur auf dem Bankkonto parkt, zum anderen sehe ich dies als Anlagemöglichkeit, denn ein Zertifikat der Commerzbank (WKN: DR1WBM), das ich mir angesehen habe, ist in 3 Jahren von 5 auf rund 20 Euro gestiegen.

Vor allem auf die Erträge der zweiten Anlage bin ich gespannt. Nach den Erfahrungen mit der Kappung bei meiner Anlage auf dem Haus die Mitte April schon um 9:30 begann und dann bis um 13:30 dauerte, bin ich dort auf die Idee gekommen, doch einige Paneele auf die Westseite zu legen. Das Dach ist dort genauso wie hier in Richtung Süd-Ost orientiert, was auf der Westseite nur 70 % des Ertrags der Ostseite erwarten lässt. Allerdings ist der Winkel günstiger (rund 30 bis 35 Grad). Vor allem erwarte ich dadurch, das es eine Gesamtanlage ist, einen weitestgehenden Wegfall der Kappung, da nur um den Mittag beide Seiten Strom liefern. Die wegfallende Kappung der Ostseite sollte den geringeren Ertrag der Westseite ausgleichen. So sind ¾ der Paneele auf der Ost- und ¼ auf der Westseite montiert. Ich habe auch bei meiner bestehenden Anlage noch mal den Bauer kontaktiert, ob eine Erweiterung um 3 kWh auf der Ostseite zu einem vernünftigen Preis möglich ist. Leider ging dies nur mit zwei Wechselrichtern und damit zwei Kappungen und dann lohnt es sich nicht mehr. Doch da so ein Wechselrichter nicht ewig hält, denke ich, wird wenn er den Geist aufgibt, die zweite Seite auch noch belegt werden.

20.5.2019: Wie die Kameras von Spionagesatelliten funktionieren

Auf mein heutiges Thema bin ich gekommen, nachdem ich mich wieder den Apollo-Büchern zugewandt habe, diesmal jedoch Band 3 mit dem Mondauto, Anzug und Experimenten. Da las ich gestern über die Apollo Lunar Panoramic Camera und die war eine Modifikation einer ITEK-Kamera für die Corona Spionagesatelliten. Das erinnerte mich daran, dass ich mir lange Zeit die Arbeit dieser Satelliten völlig falsch vorgestellt hatte.

Spionagesatelliten oder besser gesagt Foto-Auflärungssatelliten (es gibt ja auch noch die Spionage mit Radar oder das Abhören des Funkverkehrs) waren schon immer etwas Mystisches. Man wusste praktisch nichts über sie. Man konnte nur anhand der Trägerraketen und Nutzlasthüllen ihre ungefähre Größe erraten und die größten Exemplare müssten über 10 t wiegen und größer als ein Omnibus sein.

Ich ging lange Zeit davon aus, da ich ja wusste, dass sie mit Film arbeiteten, das es eine Bodenkontrolle gab an die Bilder einer oder mehrerer Fernsehkameras geschickt wurden, mit denen man die Erdoberfläche live, aber in niedriger Auflösung sah und wenn ein interessantes Gebiet in Sichtweite war oder etwas auffiel drückte ein Bearbeiter auf den Knopf, machte ein Bild. Wenn es genug davon gab, wurde der Film in eine Kapsel umgespult und diese zur Erdoberfläche deorbitiert. Das diese im Flug aufgefangen wurden, wusste man schon, das konnte man schließlich kaum geheim halten.

Doch die Kameras waren komplett anders gebaut und auch der Ablauf war anders. Die Geschichte beginnt schon vor den Satelliten, als ITEK einen neuen Kameratyp für das Spionageflugzeug U-2 entwickelt. Wie ein Satellit soll die U-2 auf einem festen Pfad über die Sowjetunion fliegen und dabei Aufnahmen machen. Es gibt nur einen Piloten, so kann er nicht gleichzeitig die Kamera bedienen und fliegen. Der Eingriff von außen musste daher minimal sein, trotzdem sollte der Erkenntnisgewinn maximal sein. Das erreichte ITEK, indem die Kamera möglichst viel ablichtet und so neben dem Primärziel auch die Umgebung erfasst – vielleicht gibt es ja auch dort Aktivitäten.

Die Itek-Kamera wurde dann, wenn auch weiter entwickelt in der U-2, SR-71, den Satelliten des Programms Corona und eben bei Apollo eingesetzt.

Basis ist Film auf einer Rolle, mit einer ziemlichen Länge. Bei Apollo 127 mm Film von 1,9 km Länge, bei Corona 70 mm Film von 7,5 km Länge. Die Kamera besteht aus einem katadioptischen Teleskop (Kombination aus Linse- und Spiegelteleskop zur Reduktion der Länge). Hinter der Petzval-Linse, die um 360 Grad rotiert, befindet sich ein Umlenkspiegel, danach zwei weitere Spiegel, die einen Z-förmigen Strahlengang ergeben. Hinten ist dann die Fokusebene. Belichtet wird aber kein ganzes Bild, sondern es bleibt nur ein Schlitz frei, der sich über die Breite des Films erstreckt. Der Film selbst läuft hinter dem Fokus durch, von zwei Rollen plan gepresst, damit die Abbildung immer scharf ist. Das Durchziehen auf den Rollen machte bei den ersten Missionen von CORONA Probleme. Dabei entsteht statische Elektrizität, die, wenn sie sich entlädt, den Film belichtet. Das war ein Problem. Das zweite war, das der Film im Satelliten spröde wurde, riss oder den Filmtransport blockierte. Man experimentierte mit mehreren Trägerstoffen und startete sogar eine Mission ohne aktive Kamera, um nur den Film zu testen. Erst mit der 13-ten Mission gelang die erste Bergung eines gut belichteten Films.

Der Transport des Films muss natürlich mit der Bewegung der Szene auf der Erde verbunden werden. Dazu gab es einen Velocity-Height Sensor, kurz V/H-Sensor. Das war ein lichtempfindliches Element im Fokus neben dem Film. Über einen Spiegel wurde das Blickfeld, das etwa 2 km groß war 4.000-mal pro Minute über den Scanbereich verschoben. Da sich die Szene durch die Geschwindigkeit bewegte, ergaben sich Veränderungen in der Helligkeit. Die Elektronik passte die Geschwindigkeit des Filmtransports so an, dass die Änderung nahe Null war. Auch dieses System war anfangs problematisch. Das Hauptproblem war die im Verhältnis zur Höhe hohe Geschwindigkeit. Eine U-2 machte Aufnahmen aus 20 km Höhe mit einer Geschwindigkeit von 250 m/s relativ zum Boden. Ein Satellit war zwar zehnmal weiter entfernt, aber bewegte sich mit 7.500 m/s relativ zum Boden, das System musste also dreimal schneller reagieren. Die ersten Missionen hatten noch keine Bewegungskompensation. Diese wurde laufend bei CORONA verbessert, was bei unveränderter Optik die Bodenauflösung von 12 auf 1,8 m erhöhte. Als zweiten Sensor gab es einen Lichtsensor, der die Helligkeit maß, was wichtig für die Belichtungszeit war. Die Belichtungszeit konnte angepasst werden, indem man die Schlitzgröße variierte zwischen 0,381 und 7,62 mm Breite.

Eine Aufnahme bestand so aus einem Streifen, der sich von vom Nadirpunkt quer zur Bewegungsrichtung erstreckte. Zum Rand hin wurde durch die perspektivische Sicht die Landschaft natürlich aus immer schrägerem Blickwinkel gesehen, was die Auflösung limitierte. So begrenzte man den Aufnahmebereich auf 108 Grad. Das Aufnehmen eines Panoramas dauerte bei der Apollokamera, die aus den Corona-Kameras gebaut wurde 2 Sekunden, in denen 1,2 m Film durchgezogen wurden. Ein solcher Zyklus wiederholte sich alle 6 Sekunden, sodass sich die Filmstreifen um 10 % überlappten. Die Zyklusdauer konnte variiert werden.

Die Kamera konnte für Stereoaufnahmen um 12,5 Grad nach vorne oder hinten geschwenkt werden. Das ergab einen Blickwinkel von 25 Grad zwischen zwei Aufnahmen. Durch diese durch ein Stereoskop betrachtbaren Aufnahmen konnten Höhen bestimmt werden. In diesem Modus überlappten sich die Stereoaufnahmen zu 100 %.

Das Kameragehäuse befand sich in einer kardanischen Aufhängung, die wiederum in einem Gehäuse fixiert war. Das System war vollautomatisch und es gab nur wenige Möglichkeiten einzugreifen. Im wesentlichen konnte man die Kamera starten, stoppen oder den Film umspulen. Bei den Spionagekameras landete der Film dann in einer Kapsel die geborgen wurden. Spätere Exemplare hatten mehrere Kapseln.

Das zeigt: es ging nicht darum, Details abzulichten und einzelne Fotos zu machen. Man konnte den Betrieb eigentlich überhaupt nicht aktiv überwachen. Die Kamera wurde durch Zeitgeber gestartet und gestoppt, die so eingestellt waren, das der Spionagesatellit das Zielgebiet überflog. Durch die Unmenge an Film wurde daher relativ viel abgelichtet. Die erste erfolgreiche Mission bildete ein Fünftel der Ladefläche der UdSSR ab. Trotzdem gab man sich Mühe Film zu sparen. Nach den ersten Generationen kamen bei steigender Startmasse zwei Weitwinkelkameras hinzu, die quadratische Aufnahmen aber mit einer Kantenlänge von über 100 km machten und nach vorne und hinten schauten, sodass sich die Aufnahmen überlappten. Sie dienten zum Anfertigen von Stereoaufnahmen niedriger Auflösung auf denen man größere Veränderungen, wie Bauvorhaben erkennen konnte. Es wurde ein militärisches Wettersatellitensystem das DMSP geschaffen, um eine Vorhersage zu machen, ob ein bestimmtes Gebiet auch wolkenfrei war und dann die Programmierung der Zeitgeber angepasst.

Dieses Prinzip hat man dann auch bei den nächsten Generationen beibehalten. Auf CORONA folgte GAMBIT. Bei GAMBIT stammte die Kamera von Kodak, arbeitete aber nach demselben Prinzip. Durch eine größere Optik stieg die Auflösung auf 90 cm bei der ersten und 60 cm bei der zweiten Generation von GAMBIT an. Die Lunar Panoramic Camera von Apollo war eine zweite Adaption. Die Optik war dieselbe wie bei Corona, sie war aber umgerüstet worden auf 127 mm breiten Film.

Viel spricht dafür das heute noch Spionagesatelliten nach diesem Prinzip arbeiten. Mit KH-11 hat man CCD-Sensoren eingeführt. Nur hatten diese als Flächensensor noch eine niedrige Auflösung. Kommerzielle Sensoren hatten als der erste KH-11 startete, eine Auflösung von 512 x 320 Punkten. Als man CCD-Sensoren für Galileo auswählte, einige Jahre später, bestanden von Tausend Prototypen nur ein Dutzend die Prüfungen. Auch sie hatten nur 800x 800 Pixel. Was dagegen möglich war, war Scanzeilen. Das ist das Prinzip eines Flachbettscanners oder eines Kassenscanners. Die benötigte große Scanzeile konnte man in beliebiger Länge durch das Verbinden von einzelnen Zeilen herstellen. Man musste sie nur hinter dem Schlitz platzieren und synchron zur Bewegung auslesen. Ein aufwendiger Filmtransport konnte entfallen.

Wie die heutigen Aufklärungssatelliten funktionieren, ist geheim, das letzte Projekt dessen Informationen freigegeben wurden waren die KH-9 „Dorian“. Aber man weiß, das kommerzielle Aufklärungssatelliten nach diesem Prinzo arbeiten. Die Satelliten der Worldview Serie setzen z.B. eine CCD-Zeile von Fairchild ein, die 28 cm lang ist mit 40.000 Pixeln pro Zeile. Allerdings rotiert nicht die Kamera. Stattdessen verwendet man TDI-Sensoren, sie haben nicht eine Scanzeile, sondern 16 bis 128. Die Elektronen, die durch die Belichtung entstehen werden, dabei von eine Spalte zur nächsten hinzuaddiert. Wenn man dies über 16 Zeilen tut, so liest man nur die letzte Zeile aus (das Verschieben der Spaltenwerte erfolgt durch den Sensor selbst) und diese hat die 16-fache Belichtungszeit einer Zeile. So kann man den Fakt kompensieren, das bei einer Bodenauflösung von 1 m dieses Detail schon in weniger als 1/7000-stel Sekunde an der Scanzeile vorbeigezogen ist. Kommerzielle Satelliten kommen so bis auf 30 cm Auflösung.

21.5.2019: Doch noch ein Geschäftsmodell für Stratolaunch?

Stratolaunch und ihr Konzept waren mir immer schon ein Rätsel. Die Firma begann zuerst mit dem Flugzeug, das inzwischen die Testflüge durchführt und dann mit der Rakete. Über die gab es nur nebulöse Ankündigungen. Zuerst sollte SpaceX sie bauen, dann wurde die Zusammenarbeit wieder beendet und Orbital beauftragt, was verwundert, weil Orbital eigentlich keine geeignete Rakete für die geplante Nutzlast von 5 t in den LEO hatte. Dann bestellte die Firma noch RL-10 Triebwerke, scheint also selbst eine Oberstufe zu konstruieren. So habe ich schon vor über zwei Jahren, das kommende Ende der Firma vermutet.

Fortschritte gab es nur beim Flugzeug, wenn auch langsame. Angekündigt im Dezember 2011, war der Prototyp des nun „Scaled Composite Modell 351“ genannten Flugzeugs erst am 31.5.2017 bereit für Rolltests. Die hat man dann fast zwei Jahre lang durchgeführt. Erst am 13.42019 fand der Jungfernflug statt.

Nachdem Paul Allen im Oktober 2018 starb und damit der Hauptfinanzier, kündigte die Firma im Februar 2019 an, nun nur noch als Dienstleister für Raketenstarts zu fungieren und die Raketenentwicklung einzustellen.

Die Frage, die ich nun habe ist, die ob das aufgeht

Nun es gibt zwei gute Gründe, die für das Geschäftskonzept sprechen. Die eine ist es, dass es sehr viele Firmen gibt, die kleine Träger bauen. Dieser Blog führt 29 Firmen auf, die aktiv sind, plus etliche die keine Fortschritte vermelden. Alleine 13 kommen aus den USA. Sie alle wären potenzielle Kunden. Zumal die Newcomer sich so Investitionen ins Bodensegment sparen könnten und die Zusatzkosten für den Start von dem Flugzeug aus würden sich auch bei mehr Kunden und häufigen Starts verkleinern.

Das zweite ist, das viele der Firmen zweistufige Raketen entwickeln. Primär aus Kostengründen. Ein gängiges Entwicklungsmodell ist das, das man in der ersten Stufe und zweiten Stufe dasselbe Triebwerk einsetzt, dafür aber sechs bis neun in der ersten Stufe, wegen der größeren Masse. So z.B. die Elektron. So kommt man mit nur einem Triebwerk auf eine zweistufige Rakete, aber bei einer zweistufigen Rakete sinkt die Nutzlast rasch ab. Das liegt zum einen an der hohen Leermasse der zweiten Stufe, wie auch daran das sich der Geschwindigkeitsbedarf auf nur zwei anstatt drei Stufen verteilt. Nicht zuletzt wiegt die Avionik bei kleinen Trägern überproportional viel. Sie ist nun mal nicht beliebig verkleinerbar.

Man sieht dies an der Elektron: Ihre Nutzlast für einen sonnensynchronen Orbit beträgt:

Der Geschwindigkeitsunterschied zwischen diesen Bahnen liegt bei nur 222 m/s. Die Nutzlast nimmt aber um 45 kg oder 30 % ab.

Leider gibt es von keinem der neuen Träger genügend Daten um es genau berechnen zu können, um wie viel sie bei einem Start mit dem Modell 351 profitieren. Daher habe ich eine Rakete in dem Nutzlastsegment herausgesucht, von der es die Daten gab, nämlich der Falcon 9. Ich habe eine Aufstiegssimulation von den Marshallinseln aus durchgeführt und komme auf 400 kg für einen 200 km hohen Orbit mit Startazimut 90 Grad, also nach Osten. Wird dieselbe Rakete aus 13 km Höhe bei einer Geschwindigkeit von 220 m/s, das sind 792 km/h, die Höchstgeschwindigkeit des Modells 351 beträgt 853 km/h, gestartet so steigt sie auf 740 kg. Das Bild zeigt einen Vergleich der Aufstiegskurven beider Szenarien. Der Gewinn liegt vor allem in den Aufstiegsverlusten. Sie betragen bei der Falcon 1 1653 m/s und bei der Trägervariante nur noch 772 m/s. Also fast 900 m/s weniger. Das ist nur zum Teil der höheren Startgeschwindigkeit geschuldet. Auch die Höhe spielt eine Rolle. So arbeiten die Triebwerke der ersten Stufe effizienter. Der spezifische Impuls ist im Vakuum, und da ist man in 13 km Höhe schon näher dran als am Bodendruck um 15,7 % höher. Damit hat auch die erste Stufe eine höhere Brennschlussgeschwindigkeit – trotz höherer Nutzlast sind es 3787 m/s gegenüber 3102 m/s. Die drastische Nutzlaststeigerung um 85 % beruht vor allem auf der hohen Leermasse der zweiten Stufe, doch auch mit einer leichteren Stufe – sagen wir mal 400 kg wäre der Gewinn beachtlich (554 zu 884 kg). Schon bei größeren zweistufigen Raketen macht die zweite Stufe viel aus, wenn sie nur mittelenergetische Treibstoffe einsetzen. Bei der Titan II sind es 2,7 t für die Zweitstufe bei 3,8 t Maximalnutzlast. Bei der Zyklon 3,7 t bei 3,2 t Nutzlast. Bei der Zenit sind es 8,3 t bei 13,7 t Nutzlast, bei der Angara 1,2 2,355 t Stufenmasse bei 2,4 t Nutzlast und bei der Dnepr 4,5 t bei 3,6 t Nutzlast. Die zweite Stufe wiegt also teilweise mehr als die Nutzlast selbst. Bei der Proton stieg die Nutzlast durch eine dritte Stufe von 12,2 auf 19,6 t an, also um die Hälfte.

Kurz: vom Standpunkt der Nutzlaststeigerung macht es Sinn, besonders, wenn man eine Rakete hat, die sonst die Nutzlast gar nicht transportieren könnte. Auf der anderen Seite könnte natürlich jeder der Firmen die Raketen entwickeln, diesen Service nutzen. Damit würde dann die Situation wieder die gleich wie vorher sein, nur mit niedrigen Kosten pro Kilogramm Nutzlast. In der Realität wird das nicht vorkommen. Aber die US-Anbieter, die wohl eher zu der US-Firma greifen werden, haben so einen Vorteil gegenüber den chinesischen Firmen, die allesamt nur halb-kommerziell sind (alle haben enge Beziehungen zu chinesischen Universitäten und wurden von diesen gegründet).

Nebeneffekte wären, das man sich die Investitionen in einen Startplatz sparen kann, auch ein Argument, wenn man nicht großzügige Sponsoren hat und vielen Starts pro Jahr rechnet. Eher ein theoretischer Vorteil ist, das jede Bahnneigung möglich ist indem man nahe am Äquator startet. Eher theoretisch, da die meisten Kleinsatelliten als Aufgabe die Erdbeobachtung haben und da benötigt man eine sonnensynchrone Umlaufbahn die man von jedem Punkt der Erde aus erreicht und bei der man auch die Erdrotation nichts als Startgeschwindigkeit „mitnehmen“ kann.

Die Frage sie sich stellt ist wohl eher die Allgemeine an diesen Markt, und zwar: Wie viele Starts von Trägern für Klein- und Kleinstsatelliten wird as auf Dauer geben? Es macht auch für Stratolaunch einen Unterschied ob ihr Flugzeug zweimal oder zwanzigmal pro Jahr startet. Vor allem, nachdem das Modell 351 dafür extra konstruiert ist. Zudem hält niemand andere Firmen ab ein eigenes Flugzeug zu Nutzen Virgin Galactis nutzt für ihre Launcher One eine B-747. Wenn ich die Lockheed L-1011 Tristar, die die Pegasus transportiert als Referenz nehme: 42 t Nutzlast vs. 23,2 t bei der Rakete, dann sollte ein ausgedienter B-747 Frachter mit 113 t Nutzlast Raketen von bis zu 62 t schwere Raketen befördern, was bis zu 1,5 t Nutzlast in den LEO-Orbit entspricht. Das ist dann durchaus eine größere Rakete, kleinere Flugzeuge reichen für kleinere Raketen und sie müssen ja nicht neu sein – sowohl die Tristar für die Pegasus wie die Boeing 747 sind ausgemusterte Flugzeuge, für einige Starts sind sie immer noch gut, denn sie dürften in ihrer Restlebenszeit sicher nicht mehr Flüge ansammeln als in einem Monat im regulären Betrieb. Und ich vermute ein ausgemustertes Flugzeug ist nicht so teuer. 

22.5.2019: Bahnen von Konstellationen

Nachdem nun zwei Flotten im Aufbau sind und eine dritte angekündigt ist, ist es an der Zeit mal zu erklären, warum man so viele Satelliten braucht und welche Rückschlüsse man über die Starts ziehen kann. Ich nähere mich dabei iterativ dem Problem.

Ein äquatorialer Satellit

Betrachten wir zuerst einmal einen einzelnen Satelliten der den Äquator umkreist. In 277 km Höhe benötigt er dazu ziemlich genau 90 Minuten. Bei einem Satelliten, der den Äquator umkreist, beträgt die Inklination Null Grad. Die Inklination gibt an, um wie viel Grad die Bahn zum Äquator geneigt ist. Bis 90 Grad ist sie nach Osten geneigt, der Richtung in der die Erde auf der Nordhalbkugel rotiert (wenn wir von unseren normalen Karten mit dem Nordpol oben ausgehen). Bei Winkel über 90 Grad verläuft die Bahn westwärts und erreicht als maximale Breite 180-Winkel-Grad. Doch zurück zu unserem Satelliten. Er umkreist die Erde in 90 Minuten. Sie selbst rotiert in 24 Stunden. Kombiniert man beide Zeiten, so passiert der Satellit einen Ort auf dem Äquator, sagen wir als Beispiel den Nullmeridian nach 96 Minuten erneut. Rund um den Punkt, wo er genau senkrecht über dem Punkt ist (im Zenit), gibt es Funkkontakt für wie lange, das hängt von der Bahnhöhe ab. Von Horizont zu Horizont kann man die Distanz über den Satz des Phytagoras berechnen. Es sind in diesem Fall 1900 km zu jeder Seite. Doch für die Konstellationen zählen andere Parameter. Nahe des Horizonts kann man einen Satelliten nur auf einem Schiff oder Flugzeug empfangen. Woanders stehen irgendwelche Hindernisse, seien sie natürlich wie Hügel oder Berge oder künstlich wie Gebäude. Daneben werden die Signale durch die dichte Luftschicht, die sie nahe des Horizonts durchqueren müssen, stärker abgeschwächt. In Städten versperren vor allem Häuser die Sicht und die Frequenzen, welche die Konstellationen nutzen im K-Band, also oberhalb von 12 GHz können Wände kaum durchdringen. Auch das Antennenpattern der Satelliten auf der Erde deckt nicht den Bereich von Horizont zu Horizont ab. Nicht zuletzt haben die Empfänger Phased-Array Antennen. Das sind elektronisch schwenkbare Antennen. Sie können wirtschaftlich um maximal 30 Grad geschwenkt werden, eine mechanisch deehbare Antenne könnte man dagegen von Horizont zu Horizont nachführen. Bei 30 Grad rund um den Zenit sind es in dieser Höhe eine Strecke von 514 km auf dem Erdboden, in der man den Satelliten empfangen kann. Will man also einen kontinuierlichen Empfang haben, so braucht man mehr Satelliten, rund 80 Stück. Auf diese Zahl kommt man, wenn man den Erdumfang durch die Breite der Zone teilt, in der der Satellit von der Antenne empfangbar ist. Je weiter der Satellit von der Erde entfernt ist, desto größer wird die Zone. Bei 550 km Höhe sind es schon 1123 km Durchmesser und es würden 36 Satelliten ausreichen.

Ein polarer Satellit

Drehen wir die Bahnebene um 90 Grad. Nun passiert der Satellit bei jedem Umlauf die beiden Pole. Das hat einen Vorteil, denn die Äquatorebene schneidet jeder Satellit zweimal. Einmal bei einem Längengrad x und einmal bei x+180 Grad. Da sich die Erde einmal unter dem Satelliten in einem Tag dreht, hat jeder Punkt auf der Erde zweimal am Tag Funkkontakt. Da jeder Satellit, nachdem er den Pol passiert hat, auf einem anderen Längengrad den Weg zurück zum Äquator zurücklegt, braucht man nur die Hälfte der Satelliten, wie man für eine "Flotte" rund um den Äquator braucht. Doch diese hat einen Vorteil: Sie deckt zwar nur den Äquator ab, aber dort hat man mit einer Bahnebene, das ist ein Bogen um die Erde auf dem sich an verschiedenen Punkten die Satelliten befinden die gesamte Region abdecken. Bei einem polaren Satelliten geht das nicht, denn die Bahnebene ist stabil im Raum. Die Erde dreht sich aber einmal pro Tag. Das bedeutet das nach den 90 Minuten, die der Satellit für einen Umlauf braucht, die Erde sich um 22,5 Gad oder 2.500 km am Äquator weiterbewegt hat und damit eine Zone außerhalb des Empfangsbereichs ist. Man benötigt also weitere Satelliten, die sich auf Bahnebenen befinden, die zur ersten um 22,5 Grad am Äquator verschoben sind. Wenn man n Satelliten pro Bahnebene hat, so benötigt man 2*n Bahnebenen. Aus der Zahl der Satelliten kann man so die Bahnebenen berechnen nach:

Bahnebenenzahl:=Wurzel(2*Satellitenzahl)

Dies gilt für den Fall, das man überall auf der Welt guten Empfang hat. Da ein Kreis um einen Breitengrad immer kleiner wird um an den Polen schließlich den Umfang Null zu haben rücken die Abstände zwischen Satelliten derselben Bahnebene zusammen. Das heißt, wenn ich am Äquator eine kleine Lücke toleriere, dann komme ich mit weniger Bahnebenen aus, und habe trotzdem in höheren Breiten noch eine 100%-Abdeckung. Weiterhin wird man in der Praxis die Satelliten verschiedener Bahnebenen versetzen, da jeder eine kreisförmige Zone hat, in der er empfangbar ist und sich so weniger Lücken ergeben.

Bahnen anderer Neigungen

Mit einer polaren Bahn kann man die ganze Erdoberfläche abdecken. Warum sollte man dann andere Bahnneigungen wählen? Weil die Abdeckung sich nicht nach der Geografie, sondern dem Bedarf orientiert. Schaut man sich eine Erdekarte an, so stellt man fest, das nahe der Pole es nur Meer oder die unbemannte Antarktis gibt. Selbst oberhalb/unterhalb 60 Grad sind nur einige meist dünn besiedelte Regionen in Kanada, Russland, Norwegen, Finnland und Südamerika. Dagegen befindet sich ein Großteil der Bevölkerung in Industrieländern wie den USA, Europa, Russland und China in einem Bereich zwischen 30 und 60 Grad Nord. Nehmen wir an, wir haben einen Satelliten, der eine Bahn mit einer Inklination von 60 Grad hat. An einem Punkt auf der Erdoberfläche von 60 Grad erreicht dieser Satellit seinen Wendepunkt. Die Spur des Satelliten über der Erdoberfläche ähnelt einer Sinuskurve. Ich habe in der Abbildung mal die Plots von Sin(x) und Sin(x+1) übereinander gestellt. Wenn man am Äquator ist, so ist der Abstand 0. Ist man nahe der Wendepunkte (hier mit einer Linie von 0,8) dargestellt, so ist der Abstand zwischen den Satelliten wesentlich kleiner, und wie man sieht, kann am an einem Punkt innerhalb kurzer Zeit zwei Passagen haben, wenn ein Satellit nach oben steigt und der zweite schon nach unten ist. Spinnt man diese Grafik weiter, indem man weitere Bahnebenen hinzufügt, dann sieht man wie die Abdeckung rund um die Wendepunkte immer dichter wird. Ein solches Netz ist also geeignet die Gebiete der Erde die in mittleren Breiten liegen besser zu versorgen als ein polares. Sprich dort: sieht man bei einer gegebenen Satellitenzahl mehr Satelliten pro Zeiteinheit, die Bandbreite, die sie zur Verfügung stellen ist, größer. Das ist nicht neu. Es gibt ja für Telefongespräche und Sprachnachrichten schon zwei Netze: Iridium hat eine Bahnneigung von 86,4 Grad. Globalstar nur eine von 52,4 Grad. Die Folgen für die Abdeckung sieht man in der Grafik für Globalstar. Deutlich ist das in mittleren Breiten die Zonen mit einem Satelliten in Sicht selten sind. Die Regel sind zwei oder drei Satelliten in Sicht. Am Äquator sieht das nicht so günstig aus und an den Polen erst recht nicht.

So kann man zuerst die Region in der die Industrieländer versorgen, aber nicht alle Bahnebenen belegen, sodass es noch Lücken am Äquator gibt und so bevor ich das System ganz aufgebaut habe schon Einnahmen generieren.

Verschiedene Bahnhöhen

Jedes der Systeme muss einen Kompromiss eingehen, den es aus Physikalisch-technischen, ökonomischen und Nachfragegründen gibt. Physikalisch gesehen ist es ganz einfach: Je höher die Umlaufbahn des Satelliten ist, desto größer ist das Gebiet, in dem er Daten senden und empfangen kann. Allerdings sinkt auch die Sendestärke bei gegebener Leistung ab. Um das zu kompensieren, braucht man größere Antennen am Satelliten und der Bodenstation. Vor allem bei der Bodenstation gibt es da ökonomische und praktische Grenzen. Um einen Vergleich zu nehmen. Fernsehen über Satellit konnte man schon in den Siebzigern empfangen. Doch benötigte man bei den damaligen Sendestärken eine Antenne von 2-3 m Durchmesser. Die war nicht nur teuer, die lies sich auch nicht überall errichten. Das heute so verbreitete Satellitenfernsehen wunde erst populär als 1989 der erste Astra startete mit höherer Sendeleistung, wodurch die Antennengröße auf 90 cm schrumpfte und damit auf eine Größe, die man auch auf dem Dach oder Balkon installieren kann und es wurde billiger. Kurzum: wenn die Leute wie sie es gewohnt sind, ein Modem haben wollen, das nicht größer als ein Router ist, kann ich den Satelliten nicht weit weg von der Erde platzieren, außer er ist groß und damit schwer. Zudem brauche ich für höhere Bahnen eine höhere Nutzlast und die sinkt mit höheren Bahnen ab. Kenner werden bemerken das die (angeblich) 22 t transportierende Falcon 9 bei 13,3 t Nutzlast, für die 60 Starlink Satelliten diese schon nicht in ihrer 550 km hohen Umlaufbahn aussetzen kann, sondern 110 km tiefer. Der logischste Erklärungsgrund dafür ist, das sie schon an der Grenze der echten (nicht virtuellen) Nutzlastkapazität sind. Den Orbit müssen sie dann selbst mit ihnen eigenen Triebwerken anheben.

Ein zweiter Grund spickt gegen zu hohe Bahnen. Das ist die Round-Trip Time, also wie lange die Verzögerung bei einer Datenanforderung ist. Für das Surfen unwesentlich, aber für Echtzeitanwendungen wie Online-Spiele essenziell. Sonst würde den Kunden ja die Infrastruktur genügen, die es schon gibt: geostationäre Satelliten erlauben direktes Internet, allerdings wegen der Distanz von rund 40.000 km zum Satelliten und zurück mit Verzögerungen von 0,3 s pro Paket. Dafür reichen drei Satelliten um die ganze Welt zu versorgen, wenn sie denn die benötigte Kapazität hätten. Starlink will maximal 20 ms garantieren. Ich vermute das ist nur die Zusatzverzögerung, denn um ans andere Ende der Welt zu gelangen, braucht man auch bei Seekabeln und minimal 20.000 km Distanz schon 67 ms. Ohne Verzögerung für die Verarbeitung der Daten bei Satellit und Bodenstation entsprechen 20 ms einer Distanz von 6.000 km.

Ein weiterer Aspekt ist, dass jeder Satellit die Daten an eine irdische Bodenstation abgeben muss, denn noch sind festverlegte Glasfaserleitungen um ein vielfaches billiger. Es ist sicher kein Problem, eine genügende Anzahl von Bodenstationen in Europa und den USA zu installieren. Bei Russland und China sieht es aus politischen Gründen anders aus. Dann gibt es noch Länder, die viele Zonen haben, in denen es kaum Infrastruktur gibt – auch eine Bodenstation in der Wüste Gobi muss einen Zugang zum Internet haben und natürlich sind 70 % der Erdoberfläche mit Wasser bedeckt. Doch auch der Schiffverkehr und die Luftfahrt sind wichtige Kunden. Im Extremfall kann - wie bei der Osterinsel - das nächste Land 2500 km entfernt sein. Eine Flotte von Satelliten im niedrigen Orbit müsste dann das Signal von einem Satelliten zum nächsten übertragen (In-Orbit-Kommunikation) bis man einen erwischt der nahe einer Bodenstation ist. Das bedeutet aber: Jeder Satellit muss fähig sein ein Vielfaches der normalen Datenmenge zu übertragen, wenn er die Daten anderer Satelliten an eine Bodenstation zusätzlich zu den eigenen übermittelt. Gleichzeitig benötigt er viel Kapazität für diese Orbitkommunikation zusätzlich die auch Strom und Gewicht kostet und nicht direkt den Nutzern zur Verfügung steht.

Die Lösung sind mehrere Netze. Ein dichtes nahe der Erdoberfläche und eines mit weniger Satelliten in höherem Orbit. Diese Satelliten dienen dann nur zur Orbitkommunikation. Sie empfangen die Daten mehrerer Satelliten im niedrigen Orbit, haben aber einen größeren Bereich auf der Erdoberfläche in denen sie empfangen werden können. Das das Signal schwächer ist, ist egal, wenn sie nicht direkt den Endverbraucher versorgen, sondern Bodenstationen, für die sind große Parabolantennen kein größerer Kostenfaktor. Bei Starlink sind es 1584 Satelliten in 550 km Höhe und 53 Grad Neigung - wie erwähnt ein Winkel in dem man vor allem die Industrienationen und nicht die Entwicklungsländer versorgen, kann anders als Musk sagt. Dazu kommen 7482 Satelliten in 340 km Höhe und eben 2825 in 1100 bis 1350 km Höhe, die wahrscheinlich vor allem Relays für die niedrigen Satelliten sind.

Folgen für die Starts

Pro Start kann man ein Teil oder alle Satelliten einer Bahnebene transportieren. Theoretisch kann ein Satellit seien Bahnebene wechseln, indem er die Bahn leicht absenkt oder anhebt, dann wird er vergleichen mit den anderen die Erde schneller oder langsamer umrunden und so sich langsam der nächsten Bahnebene vor oder nach der derzeitigen nähern. Dort angekommen kann man die Bahn wieder anheben. Doch dann muss er auch dort genau dann ankommen, wenn er die Lücke füllen muss, die ein ausgefallener Satellit hinterlässt. Das ist ziemlich aufwendig. Zwischen Bahnen mit unterschiedlicher Inklination, wie sie sicher bei verschiedenen Orbithöhen vorliegen zu wechseln ist energetisch unmöglich. Die Strategie dürfte es daher sein, jede Bahnebene mit möglichst wenigen Starts voll zu füllen, wobei Reservesatelliten vorgesehen sind. SpaceX füllt zuerst den 550 km Orbit auf. 1584 Satelliten sollen es dort sein. 60 werden nun gestartet. Teilt man 1584 (operative) Satelliten gleichmäßig auf so kommt man auf maximal 33 Bahnebenen mit dann 48 Satelliten pro Bahnebene. Die restlichen 12 werden Ersatz für ausgefallene Satelliten sein. Analog sind es bei Oneweb bei 36 Satelliten pro Start dann 18 Bahnebenen. So kann man leicht die Zahl der Starts ausrechnen, die man pro Bahnebene braucht. Für das 550 km Netz von Starlink komme ich so auf 33 Starts. Das passt zur der Verlautbarung, das man mit 30 Starts den Planeten abdecken kann.

Ich möchte betonen, das dies Überschlagsrechnungen auf Basis der Geometrie sind. Für ein operatives System werden die Parameter durch Computersimulationen ermitteln, die sich nach den Bahngesetzen aber auch den Antennen, ihren Empfangsmustern und Sende-/Empfangsleistungen und natürlich an wirtschaftlichen Aspekten orientieren – man wird das System so auslegen, das die Regionen mit kaufkräftiger und zahlreich vorhandener Kundschaft besser versorgt werden als die Regionen ohne diese Kundschaft. Die Ergebnisse werden daher andere sein als nach einer Faustformel ermittelt, aber nicht gravierend davon abweichen.

24.5.2019: Experten, Little Britain, E-Roller

Als kleinen Zwischeneinschub heute meine ganz persönliche Meinung zu drei Themen. Das zweite ist ja nicht nur bei mir ein Dauerbrenner. Aber fangen wir mit den Experten an. Nun ist die FPÖ ja wieder aus der Regierung raus. Ich spare mir meine Gedanken zu rechten Parteien, die ja behaupten, das die „etablierten“ Politiker alle korrupt wären und sich selbst bedienen würden, und dann selbst viel schlimmer sind. Mich erstaunt, das man in Österreich dann nicht die freien Ministerposten durch Politiker des noch verbliebenen Koalitionspartners füllt, wie dies bei uns der Fall wäre und so auch 1982 erfolgte, als die Wendepartei FDP die Regierung verlassen hat. Stattdessen werden Experten wie pensionierte Regierungsdirektoren des Fachbereichs als Minister vereidigt. Das scheint eine Spezialität von Österreich zu sein, denn ich kann mich erinnern, dass ich so was vor einigen Jahren schon mal gehört habe.

Aber ich finde das ist kein so schlechter Gedanke. Denn was soll ein Minister den tun? Er soll mit Sach- und Fachverstand Entscheidungen für seinen Verantwortungsbereich und Gesetzesentwrüfe erarbeiten fällen. Viele Minister die ich kenne, haben von dem Fachbereich den sie verantworten, keine Ahnung, machen Parteipolitik oder sind unqualifiziert. Einige Beispiele gefällig? Seehofer bringt letzten Sommer die Koalition in eine Krise, wegen einer völlig unnötigen Obergrenzen-Quote die angesichts sinkender Flüchtlingszahlen sowieso nie erreicht wird. Droht mit Rücktritt, tritt aber dann doch nicht zurück. Karliczek glänzt seit Amtsantritt durch Nichtstun. Selbst der Koalitionspartner SPD fordert Gesetze ein. Als Hotelfachfrau hat sie auch nicht gerade eine Vorbildung, die für ein Wissenschaftsministerium ausreicht. Öttinger wird von einem EU-Posten auf den nächsten verschoben. Von keinem der Gebiete – egal ob Internet oder Energie hat er eine Ahnung und er spricht nicht mal englisch, was bei einem Posten der für ganze Europa verantwortlich ist, ich als Minimum an Qualifikation betrachte. Und Olaf Scholz, ehemaliger Bürgermeister einer Stadt, die eine Extremverschuldung hat, als Finanzminister zu berufen, ist wie wenn man einen Kriegsdienstverweigerer als Verteidigungsminister beruft.

Mein Vorschlag: Ändert die Regelungen so, das ein Minister wirklich der höchste Beamte in dem Ressort ist. Die Positionen sollten mit unabhängigen Fachleuten besetzt werden. Nicht mit Abgeordneten, schon um eine Erpressung „… sonst bekommst du nächstes mal keinen Listenplatz ...“ auszuschließen. Dann entfallen auch so Gesetze, die vor allem der Parteipolitik geschuldet sind, wie die bedingungslose Grundrente. Solche Experten tauchen ja ab und an in Schattenkabinetten auf. In die Regierung werdend dann aber doch nur die Parteigenossen gewählt, und dann geht es um Proporz und Ego, nicht um Qualifikation.

Dann scheint so langsam das Ende von Theresa May gekommen zu sein. Ich wäre ja schon im Januar zurückgetreten. Wenn 2/3 der Abgeordneten gegen den ausgehandelten Vertrag stimmen, also ein Drittel der eigenen Partei, dann ist es Zeit zu gehen. Das Problem ist ja. Sie bekommt keinen besseren Deal. Ich habe eine Dokumentation auf Arte gesehen wo man zwei Jahre lang die Unterhändler begleitet hat. Sehr deutlich wurde dort die Strategie der Briten: Erst vertrödelten sie Zeit, riefen eine Neuwahl aus, weil May meinte, die Umfragewerte wären günstig (auch etwas was ich in einem Land das sich für urdemokratisch hält, sehr seltsam finde) und spielten dann weiter auf Zeit, in der Hoffnung, Europa würde einknicken. Hat bisher ja auch gut geklappt. Seit 1985 haben die Engländer einen „Briten-Rabatt“. Sie zahlen also nicht das ein, was sie nach Quote ihrer volkswirtschaftlichen Leistung tun müssten, sondern rund ein Drittel weniger. Das hat damals Thatcher ausgehandelt. Die Strategie zu drohen, bis die anderen irgendwann nachgeben, hat bisher immer funktioniert. Nur diesmal eben nicht. Es gibt diesmal eine Deadline und die ist für England bedeutender als für Europa. Europa kommt gut aus ohne einen 28-sten Mitgliedsstaat. Doch England ist dann isoliert, alle umgebenden Staaten sind dann Ausland. Okay, das ist auch so für die Schweiz, aber die hat umfangreiche Handelsverträge mit der EU geschlossen, die sie wirtschaftlich einbinden, auch wenn sei nicht Mitglied der EU ist. England würde aber auf den Status jedes Drittlandes ohne Handelsabkommen wie Russland, Zimbabwe oder Nordkorea zurückfallen. Daher fehlte in diesem Fall das Druckmittel und weil Europa standhaft blieb, gab es auch nichts mehr „nachzuverhandeln“ auch so eine Ansicht dieser britischen Krämerseelen. Wenn einem etwas nicht passt, dann verhandelt man nach. Die vorher abgeschlossenen Verträge gelten dann nicht mehr. Eine Vorstellung die ja auch Trump hat.

Mich hat das Thema interessiert und ich habe mir weitere Dokumentationen über das Brexit angeschaut. Interessant war eine über die Vorgeschichte. Klar spielten für den Ausgang die Lügen eine Rolle. Über angebliche Zahlungen Englands an die EU über angebliche Vorschriften der EU an England. Aber zwei Punkte scheinen entscheidend zu sein. Das eine war die Frage von EU-Bürgern in England. Die Leute waren dort nicht nur gegen Flüchtlinge, sondern auch gegen EU-Bürger die in England arbeiteten und dort Steuern und Sozialabgaben zahlen. Mich erinnert das an die Ressentiment in Ostdeutschland und Osteuropa. Die Ursache scheint die gleiche zu sein: Abgeschnittenheit durch Insellage oder einen Stacheldrahtzaun. Das zweite war die offensichtliche Befürchtung, das England die Kontrolle über seine Souveränität verliert. Natürlich ist das Mitgöiedsein in einer größeren Gemeinschaft immer problematisch. Das gilt ja nicht nur für England. Jeder Staat gibt Befugnisse an die EU ab. In bestimmten Bereichen wie z. B. Dem mit dem ich zu tun habe – Lebensmittel – sind die nationalen Vorschriften inzwischen durch EU-Verordnungen abgelöst. Aber es gibt einen Nutzen: Hersteller können ein Lebensmittel auch EU-weit vertrieben und müssen nicht jedes mal die Rezeptur an nationale Vorschriften anpassen.

Vielleicht tut man sich in Deutschland leichter mit der EU. Nimmt man die Geschichte, so waren wir jahrhundertelang ein Land mit zig Kleinstaaten oder freien Reichsstädten. Jeder mit eigener Währung, Gesetzen und Zöllen. Genutzt hat das keinem. Noch 1967 kämpften Preußen gegen Österreich und Sachsen. Dem ersten Nationalstaat folgte dann eine Phase in der – wie ich denke – die meisten Engländer gedanklich immer noch sind: der Glaube man wäre besser als die anderen. Das führte zu Sprüchen wie „an deutschem Wesen kann die Welt genesen“ oder „heute Deutschland, morgen die ganze Welt“ und zwei Weltkriegen. Wir haben aus einer Erbfeindschaft eine Freundschaft gemacht, die zur Keimzelle und Antriebsmotor einer europäischen Einigung wurde. In England scheint man sich zumindest gedanklich immer noch für eine Großmacht zu halten.

Zurück zu May. Sie mag zurücktreten, doch ich sehe keine Lösung für das Problem. Zuletzt wollte sie ja sogar ein zweites Referendum, wogegen sich dann alle Parteien wehrten. Das ist auch etwas sehr Seltsames. Dort scheint es keinerlei Zusammenarbeit zwischen den Partien zu geben. May hat Probleme weil sowohl die gegen den Deal sind die unbedingt raus aus der EU wollen, am liebsten ohne Deal wie auch die, die weiter in der EU bleiben wollen. Zumindest die letzteren sollten aber dann für ein zweites Referendum sein. Aber es kommt ja von der Regierung also ist man dagegen. Wenn es aber kein zweites Referendum gibt und man einen ausgehandelten Vertrag hat und einen festen Austrittstermin, dann könnte man ja dem Vertrag zustimmen, das wäre ja noch besser als das „No Deal“ Szenario. Aber wie schon gesagt: die Abgeordneten für den EU-Verbleib sind in der Opposition (labour) und daher automatisch dagegen.

Letztes Thema: E-Roller. Die sollen ja „in“ sein und nun gibt es sogar ein eigenes Gesetz für die. Mit Regelungen die ich verrückt finde: eine eigene Versicherung für die Dinger. Aber keine, für die viel schnelleren E-Bikes. Die Meinungen für die Dinger reichen von „idealer Lösung für die letzte Meile“ bis zu „Hipster-Spielzeug, das bald im Sondermüll landet“. Meiner Meinung nach sind sie überflüssig. Sie sind für Strecken geeignet, die man auch problemlos zu Fuß gehen kann. Aber wir leben ja in einer Welt der Extreme. Einerseits werden die Leute immer fauler, brauchen für einige Hundert Meter so einen Roller. Andererseits wird dann nach Feierabend mit dem Fitnesstracker gejoggt. Immerhin einen Vorteil haben sie: man kann nicht gleichzeitig damit fahren und aufs Smartphone schauen. Mir begegnen als Fahrradfahrer immer mehr Fußgänger die schwankend im Schneckentempo über den gemeinsamen Fuss/Radfahrerweg torkeln und nur auf ihr Smartphone schauen. Einmal ist mir sogar ein Fahrradfahrer mit Blick aufs Smartphone begegnet ...

Den einzigen Vorteil den ich sehe, ist das mehr dieser „neuen“ Verkehrsmittel jenseits des Autos der Druck wächst für diese Verkehrsteilnehmer die Situation zu verbessern. Denn daran hakt es, nicht an Fortbewegungsmitteln. In deutschen Großstädten ist das Fahren mit dem Fahrrad lebensgefährlich. Wir feiern ja derzeit 70 Jahre Grundgesetz. Dort steht auch das alle Menschen gleichberechtigt sind – nur nicht als Verkehrsteilnehmer. Dort haben immer noch Autos eine Sonderstellung inne.

26.5.2019: Zeit für eine Concorde 2?

Vor einiger Zeit habe ich eine Dokumentation über die Concorde gesehen. Sie endete in einem Ausblick. Nämlich das man heute an Technologien arbeitet, wie ein überschallschnelles Flugzeug doch noch wirtschaftlich sein könnte. Für mich überraschend: das Hauptaugenmerk der heutigen Forschung gilt dem Lärm, denn dessen Reduktion ist das Hauptproblem für einen Einsatz. Die Concorde dürfte erst auf dem Meer auf Überschallgeschwindigkeit beschleunigen damit es an Land keinen Überschallknall gab. So war der Einsatz limitiert auf Flugplätze, die am Meer lagen und die man erreichen konnte ohne Land zu überfliegen. Also ein Einsatz New York ↔ Los Angeles schied wegen des Überflugs der USA aus.

Ich greife das Thema mal auf, um zu diskutieren ob sich ein neues überschallschnelles Flugzeug wirtschaftlich rentiert. Denn daran hängt ja alles. Was der Concorde zu schaffen machte war die Ölkrise und die dadurch ansteigenden Kerosinpreise, die damals um den Faktor 3 bis 4 stiegen, auch wenn sie verglichen mit heute noch niedrig waren. Es ist logisch, das ein Flugzeug das überschallschnell fliegt, einen höheren Spritverbrauch hat. Hier mal ein Vergleich:

Der Schub der Concorde ist also 78 % höher, der Treibstoffverbrauch pro „Pfund Schub“ 46 %. Dafür transportiert die Concorde nur maximal 120 Passagiere anstatt 215 wie bei einer B-707. So ist klar, das ein Flug teurer ist. Alleine die Treibstoffkosten müssen so 4,65-mal höher sein, wenn man die geringere Flugzeit (3,25 anstatt 8 Stunden) berücksichtigt immer hin noch 90 % höher. Doch das ist nur eine Seite. Das Flugzeug selbst ist ja auch teurer, wahrscheinlich auch der Unterhalt und die Wartung. Das muss man dann auf 120 Passagiere pro Flug umlegen anstatt 215.

Doch an der Wirtschaftlichkeit kann man drehen. Hier mal einige Ideen von mir:

Werkstoffe

Üblicherweise verwandte man im Flugzeugbau als die Concorde entwickelt wurde Aluminiumlegierungen. Da die Concorde Außenhaut sich bei hoher Geschwindigkeit stark aufheizte, war dies nicht möglich, weshalb ein Großteil der Concorde aus Stahl gefertigt wurde – mit entsprechenden Gewichtsnachteilen.

Doch das war in den Sechziger Jahren. Mittlerweile entstehen neue Flugzeuge weitestgehend aus Kohlefaserverbundwerkstoffen, die genauso beanspruchbar wie Edelstahl sind, aber dreimal leichter und sie sind auch thermisch genauso belastbar. Ich denke so könnte man viel Gewicht einsparen.

Triebwerke

Auch bei den Triebwerken ist die Zeit nicht stehen geblieben. Auch normale Passagierflugzeuge müssen heute Treibstoff sparen. Ich habe mal das J3T der Boeing 707 mit dem Trend 772 verglichen. Das ist nicht gerade das neueste Triebwerk, es wurde 1994 für den Airbus 330 / 340 entwickelt. Aber schon es kommt auf 0,58 lb/lbf/h Treibstoffverbrauch. Es ist also 34 % effektiver, benötigt entsprechend für dieselbe Strecke weniger Treibstoff. Die Concorde benötigte bis zu 96 t Treibstoff für eine Strecke von 7200 km. Bei einer maximalen Startmasse von 185 t entfällt also die Hälfte der Masse auf den Treibstoff. Die Reduktion der Treibstoffmenge pro Kilometer strecke ist daher überproportional effektiv, denn man verbraucht auch Treibstoff um den Treibstoff zu transportieren der ja die Hälfte der Startmasse ausmacht. Die Reduktion um 34 % wird wenn man berücksichtigt das die Hälfte der Masse Treibstoff ist zu 68 %.

Alternativ kann man bei gleicher Treibstoffzuladung die Reichweite erhöhen, denn diese ist mit 7200 km zwar groß genug, um den Atlantik zu überqueren. Heute aber führen viele Flüge in den asiatischen Raum und den erreicht die Concorde nur mit Zwischenstops. Auch der Pazifik ist zu weit um ihn ohne Zwischenstop zu durchqueren. Anstatt also die Treibstoffmenge zu reduzieren könnte man bei gleicher Zuladung auch die Reichweite auf 9.700 km erhöhen.

Treibstoffart

Die Concorde verwandte Kerosin. Doch bei einem so hohen Treibstoffverbrauch und so hohen Betriebskosten wäre es auch lohnend über Wasserstoff als Treibstoff nachzudenken. Kerosin hat einen mittleren Brennwert von 34,5 MJ/kg. Wasserstoff einen von 143,3 MJ/kg, also viermal höheren. Dafür ist er als Nachteil weniger dicht – berücksichtigt man das so ist bei gleichem Volumen der Energiegehalt nur 36 % dessen von Kerosin. Das heißt mit Wasserstoff würde ein Nachfolger der Concorde zwar nochmals deutlich weniger Treibstoff pro Kilometer brauchen, wäre aber wenn man die höhere Effizienz der Triebwerke wieder berücksichtigt wegen der geringeren Menge nur mit derselben Reichweite baubar. Sie wäre sogar etwas kürzer (rund 6600 km). Wasserstoff würde sich dann lohnen, wenn 8 t Wasserstoff nicht mehr kosten als 96 t Kerosin.

Moderne Technologien

Als man die Concorde entwickelte, gab es keine Computersimulationen. Heute gibt es diese. Ich glaube zwar kaum, das dies wesentlich an den Eckdaten wie Treibstoffverbrauch und maximale Geschwindigkeit etwas ändern kann, denn schon damals wurden Modelle im Windkanal getestet. Doch die Begleiterscheinungen, vor allem der Lärm, dürfte man heute besser reduzieren können und gerade dies ist ja auch wichtig, wenn man ein Flugzeug haben will, das universell einsetzbar ist und auch über Land fliegen kann.

Auftanken

Seit Jahrzehnten werden militärische Maschinen in der Luft aufgetankt. Inzwischen wird es auch für Passagierflugzeuge erwogen. Für diese sollen sich Einsparungen von 11 bis 23 Prozent beim Treibstoffverbrauch ergeben. Für die Passagiere wird der Flug schneller, da die Landung wegfällt. Das wäre auch eine Option für einen Concordenachfolger. So könnte man auch die geringe Reichweite kompensieren. Weiterhin ist bei einem überschallschnellen Flugzeug der Verlust an Zeit bei einer Zwischenlandung viel größer und auch der Treibstoffverbrauch um wieder auf Mach 2 zu kommen. Auch wenn man zum Auftanken auf Mach 0,8 bis 0,9 abbremsen muss. Es würde sich lohnen.

Markt

Rechnet man den Ticketpreis einer Concorde von 1997 auf heute um, so war ein Flug 12.500 Dollar teuer. Selbst mit weniger Spritkosten und geringerem Gewicht – ein Billigflieger wird ein Überschallflugzeug nicht werden. Es gibt zwei Tendenzen, die zum einen den Markt vergrößern, zum anderen verkleinern. Vergrößert wird der Markt, weil es heute viel mehr zeitkritische Dinge gibt. Manager sollen dauernd erreichbar sein. Ihre Arbeitskraft ist viel teurer als ein Ticket. Auch hat man heute weniger Zeit. Das spricht für einen Überschalljet.

Auf der anderen Seite muss man heute für Besprechungen nicht mehr vor Ort sein. Einfache Besprechungen kann man mit Videokonferenzen machen. Zusammen an Prototypen kann man in virtuellen Umgebungen arbeiten, auch wenn man nicht im selben Raum ist. Selbst an die Anleitung von Arbeitern selbst etwas zu reparieren durch den Experten über VR, anstatt diesen einzufliegen, wird heute schon erprobt.

Auf der anderen Seite meint ja Elon Musk, das man seine Marspläne dadurch finanzieren kann, indem seine BFR Passagiere von A nach B transportiert und die braucht dazu nicht 40 % der Startmasse an Treibstoff sondern 90 % und dürfte schon weil Raketen viel weniger oft verwendbar sind, viel teurer sein. Sicher ist eine BFR schneller – interkontinentale Distanzen in 90 Minuten schafft man nur mit einer Rakete. Doch der Gewinn gegenüber einem Unterschallflugzeug ist das wichtigste. Eine Concorde sparte schon 2/3 der Zeit ein. Eine BFR würde dann nur weitere 20 % einsparen. Wenn es also nach Musk geht, dann gibt es einen Markt der sogar noch viel mehr für einen Flug zahlen würde – allerdings mit Mehrwert – wie Flug ins All und Schwerelosigkeit. Auf der anderen Seite – das macht jeder, der das erleben will vielleicht 1 oder zweimal. Flugzeug fliegt man aber regelmäßig. Der Markt für ein Überschallflugzeug ist größer und er ist nachhaltiger.

Nachfolger

Ich habe zumindest einen Nachfolger gefunden. Boom soll Mach 2,2 erreichen. Hat eine höhere Reichweite (Los Anges ↔ Sydney) aber nur 55 Passagiere. Vielleicht gerade keine so dumme Idee, denn die Zahl der Kunden die es eilig haben, ist begrenzt und wenn man stundenlang auf den nächsten Flieger warten muss, ist der Zeitvorteil auch weg. Virgin hat schon Flugzeuge gekauft. So ein kleines Flugzeug wäre auch etwas für Politiker: die düsen ja noch immer schnell um die Welt, zu Regierungsbesuchen, Konferenzen und für die zählen Flugkosten nicht. Für sie reichen auch 55 Passagiere.

Meine Meinung

Ich denke mit den besprochenen Fortschritten ist ein Überschallverkehrsflugzeug heute technisch attraktiver als es die Concorde war. Heute gibt es treibstoffsparende Triebwerke, leichtere Werkstoffe das Gewicht verringern. Mit Wasserstoff kann man das Startgewicht weiter absenken. Selbst bei einer kleinen Reichweite wären längere Strecken mit Wasserstoff möglich, trotz der niedrigen Dichte, wenn man in der Luft auftankt.

Der wirkliche Knackpunkt ist der Lärm. Er führte schon dazu, dass die Concorde über Land unterschallschnell flog und dann erst über dem Meer beschleunigte. Damit sind aber viele attraktive Routen „verboten“ wie Transkontinentalflüge über die USA. Wenn wie die NASA meint, dass man den Lärm eines Überschallflugzeugs entscheiden reduzieren kann, dann könnte das Konzept wieder erfolgreich sein. Kleinere Flugzeuge, die angepasst sind an eine kleine Nachfrage, durch Leute denen der Preis egal, ist (Virgin verspricht zwar das es nicht teurer wird als die teuersten Tickets bei Linienflügen, doch ich glaube das nicht) könnten auch wirtschaftlich erfolgreich sein. Denn natürlich sind auch dann die Entwicklungskosten und Herstellungskosten kleiner.

29.5.2019: SpaceX – Mai 2019

Es wird mal wieder Zeit mich mit der Firma mit dem X zu befassen. Man sollte ja meinen nach 17 Jahren und acht Jahre nach dem ersten Falcon 9 Start haben sie es raus etwas zu entwickeln, was nicht gerade neueste Raumfahrttechnik ist. Nehmen wir mal Fallschirme oder druckgeförderte Triebwerke. Fallschirme um schwere Lasten abzusetzen gibt es schon lange. Soweit ich weiß, hat man im zweiten Weltkrieg damit begonnen Lasten während des Flugs mit Fallschirmen abzusetzen. Also nichts, was eine besondere Innovation erfordert.

Ebenso sind druckgeförderte Triebwerke in der Raketentechnik so ziemlich das einfachste, was man bauen kann. Sie haben keinen Gasgenerator, keine Turbine, keine Pumpe. Außer Ventilen keine beweglichen Teile. Nicht umsonst setzt man sie dort ein, wo Zuverlässigkeit wichtiger als Performance ist. Neben Oberstufen auch bei Satelliten als Lagereglungstriebwerke und Antriebe. Auch die Orion setzt wieder auf ein druckgefördertes Triebwerk als Antrieb.

Was soll ich also zu einer Firma sagen, die die bei einem Test der druckgeförderten Triebwerke die Kapsel in die Luft sprengt und bei der sich bei einem weiteren Test die Fallschirme nicht öffnen? Nun wahrscheinlich läuft es bei SpaceX wie immer. Wie immer heißt in meinen Augen:

Dazu passt auch das der unbemannte Testflug einer Crewed Dragon der eines Raumschiffs war das gar nicht fähig war die Astronauten zu transportieren:

Wohlgemerkt, das war eine Nachricht vom 21.3.2019, bevor SpaceX ihre Kapsel sprengte. Auch das wurde alles erst nach der Landung am 8.3.2019 bekannt, ebenso wie der gescheiterte Fallschirmtest erst nach einem Monat herauskam, weil nicht nur SpaceX nichts davon sagt, sondern auch die NASA dazu verdonnert. Nur wenn Amateure die Explosionswolke filmen (Parallelen zu einer Falcon 9 die mal bei den Landetests explodierte dürfen gezogen werden) wird verharmlosend von einer Anomaly gesprochen.

Dafür, als Schmach obendrauf erwähnt die NASA in obigem Bericht den einzigen Testflug der Starliner in einen regulären 6 Monate Langzeitflug umzuwandeln. Dabei basiert die Crewed Dragon auf der Dragon, die schon ihren ersten Flug hatte, bevor Boeing überhaupt den Auftrag für die Kapsel bekommen hat. Vor allem das ein Fallschirm nicht aufgeht verwundert mich doch sehr, denn die Landung ist doch eigentlich die gleiche wie bei der normalen Dragon. Von einer Landlandung ist ja keine Rede mehr (auch etwas, was mit viel Tamm-Tamm angekündigt wird und dann wieder gestrichen wurde).

Das Ganze ist nicht neu und ich wiederhole mich, doch das ist einfach als auf zig Artikel in der Vergangenheit zu verweisen. SpaceX hat, lange bevor es Fake-News als Begriff gab, die Macht der Versprechungen erkannt, um Geld zu sammeln. Gerechterweise muss man ja sagen nicht SpaceX, sondern Elon Musk, denn von SpaceX gibt es fast keine Nachrichten und die anderen Chefs wie Koenigsmann oder Shotwell korrigieren eher die Ankündigungen ihren Über-CEO.

Es zieht. So haben sie in zwei Runden eine weitere Milliarde Dollar für 18,8 Millionen Anteile lockergemacht (kann man die Anteile eigentlich wie Geld selbst drucken?, da SpaceX nicht börsennotiert ist weiß man weder wie viel Gewinn sie machen noch wie viele Anteile es gibt). Es gibt immer genügend Leute, die meinen das sie mit SpaceX reich werden. Das Spiel versucht ja Musk auch, bei Tesla um den Aktienkurs zu pushen. Dumm nur das als börsennotiertes Unternehmen sie eine Bilanz veröffentlichen müssen und da hat das neue Modell 3 auch nicht die Trendwende vom Verlust in den Gewinn gebracht. Tesla hat 9,99 Milliarden Dollar Schulden. Alleine im April mussten 920 Millionen Dollar berappt werden und im letzten Quartal gab es erneut 700 Millionen Dollar Verlust.

Immerhin eines ist im verlinkten Artikel interessant: SpaceX soll 2018 2 Milliarden Dollar aus Launch Services eingenommen haben (Umsatz). Es gab 2018 21 Starts, davon ziehen wir den unbezahlten Jungfenflug der Falcon Heavy ab, bleiben 20. Davon sind wiederum drei Starts der Dragon, die neuen 20 Flüge kosten 3040 Millionen Dollar, ich nehme das mal für die letzten drei an (nach Vertragsabschluss wäre es nur 133 Millionen Dollar). So sind dies 456 Millionen Dollar. Teilt man nun aber die restlichen 1554 Millionen Dollar auf die restlichen 17 Flüge auf, dann kostet der Start einer Falcon 9 dann 91,4 und nicht 62,8 Millionen Dollar, wenn ich die Original CRS-Zahlen nehme, sind es sogar 94,1 Millionen Dollar. Was lernen wir daraus? Entweder macht Wiederverwendung die Rakete um ein Drittel teurer, oder es handelt sich beim auf der Webseite stehenden Startpreis um Fake-Prices, analog hat Koenigsmann ja schon veröffentlicht, dass die Maximalnutzlast einer Falcon 9 für den GTO bei maximal 6,5 t (ohne Bergung) liegt und nicht 8,3. Also Preis um 46 % hoch, Nutzlast um 28 % niedriger. So sieht die Wirklichkeit aus.

Wenn wundert es, das der letzte Start 60 Starlinksatelliten die zusammen 13,6 t wogen nicht mal in der Zielhöhe von 550 km aussetzte, sondern in 440 km Höhe, denn natürlich ist auch die LEO-Nutzlast dann geringer und geborgen hat man die erste Stufe dann natürlich selbstverständlich auch nicht. Ginge es nach der Webseite so sollte bei 22,2 t Maximalnutzlast ja ohne Problem 13,6 t in den Zielorbit startbar sein und man müsste die Stufe noch bergen können.

Kunden kann man nicht täuschen – seit zwei Jahren schrumpft das Launch Manifest. Als ich Anfang des Jahres da nachschaute waren noch 40 Starts offen. Stand heute (28.5.2019) ist es wieder einer weniger, noch 39 und das, obwohl es nur 6 Starts in fünf Monaten stattfanden, die Startrate also rapide abnimmt. Schlimmer noch: von den 39 Starts sind inzwischen 23 von der Regierung. Wenn die Rakete so billig und so kommerziell erfolgreich ist, warum bleiben dann gerade diese Kunden weg? Vielleicht weil der Preis um 45 % anstieg und die Nutzlast um 28 % sank?

Doch die Regierungsaufträge reichen nicht. Schon als die verlängerte Falcon 9 eingeführt wurde, vor fünf Jahren, prozessierte SpaceX gegen das Dod, weil das ihrer Ansicht nach zu lange dauerte und sie so von Aufträgen ausgeschlossen seien. Damals legte man das so bei, dass SpaceX einige Starts ohne Ausschreibung bekam, so den dieses Jahr gestarteten GPS-Satelliten.

Als die NASA eine Rakete für LUCY orderte, gab es erneut einen Protest bei der GAO, den die Firma wieder zurückzog. Da über das Anlegen es vor Klärung des Falls keine Auskunft seitens der GAO gab und natürlich auch SpaceX keine Angaben macht, dachte man das wäre wegen dieser Mission, bei der sich SpaceX auch um den Start beworben hatte. Nun hat die Firma beim Court of Federal Claims geklagt. Aber es geht nicht um den LUCY-Start, sondern weil die USAF am 10.10.2018 Entwicklungsaufträge an drei US-Firmen für neue Raketen vergab: ULA mit der Vulcan, Blue Origin für die New Glenn und Grumman/ATK für die OmegA. Das seien Papierraketen und man habe die Falcon Heavy die alle Starts absolvieren könne. Mensch muss bei SpaceX aber die Situation brenzlig sein. Wenn man sich schon vor zukünftiger Konkurrenz fürchtet, und meint diese mit Klagen abhalten zu können. Dabei hat man selbst Entwicklungsaufträge wie für das Raptor gerne genommen. Anders als bei dem ersten Fall handelt es sich ja um Entwicklungsaufträge. Es muss doch der USAF frei stehen, wenn sie mehr Konkurrenz haben, will Entwicklungen zu fördern. Nichts anderes tat die NASA ja auch bei COTS und CRS und die Aufträge haben nach Musks eigenen Angaben die Firma vor dem Ruin gerettet. Zudem müssen die Firmen immer noch den Großteil selbst finanzieren und es werden nur zwei der drei Firmen später selektiert, die Dritte muss die Mittel zurückzahlen. Eine regierungsfinanzierte Entwicklung sieht anders aus. Damit übrigens das Spiel mit den Fake-Ankündigungen und wenigen offiziellen Zahlen weiter funktioniert hat man diesmal nicht bei der GAO protestiert, die ihre Entscheidungen öffentlich macht sondern bei diesem Gerichtshof, auch wenn dort Entscheidungen dreimal länger dauern. Den Protest gegen die Entscheidung für Lucy wurde dagegen am 3.4.wieder zurückgezogen. Ein zufälligerweise bekam sie eine Woche später den Startauftrag für die DART-Mission. Beim Paten nennt man so etwas wohl ein „Angebot, das man nicht ausschlagen kann“.

Das wirft ein Licht auf zwei Aspekte: offensichtlich will die USAF wie bisher zwei Firmen für ihre Starts, zählt SpaceX aber nicht dazu sonst wäre es nur eine weitere Firma. Und zweitens: wie verlogen ist das denn, wenn man dauernd sagt „Bald kommt die BFR, dann wird alles billiger und wir verdienen Geld mit suborbitalen Passagierflügen. Falcons gibt es nur noch für erzkonservative Kunden, die an den Raketen hängen, die Falcon Heavy stellen wir zugunsten der BFR ein“ und nun sagt „Alle anderen entwickeln Papierraketen (sprich die BFR ist keine Papierrakete), und wir haben die tolle Falcon Heavy die alles kann“. Also was denn nun?

Die Crewed Dragon wird nach NASA-Angaben nicht vor Ende des Jahres bemannt starten. Damit wird Boeing SpaceX überholt haben, obwohl die Firma fünf Jahre Vorsprung hatte, wenn man berücksichtigt das die Dragon keine Neuentwicklung ist. Tja etwas fehlerhaft zu entwickeln und dann nachzubessern klappt bei der bemannten Raumfahrt eben nicht. Noch schlimmer: da SpaceX so versagt will die NASA aus dem kurzen Besuch der ersten Starliner eine normale Langzeitmission machen, schlussendlich verschiebt bei SpaceX wieder alles um Monate. Wie viel die NASA Boeing und SpaceX zutraut sieht man auch an den Vorläufen: Die Starliner fliegt gleich bemannt. SpaceX muss erst zwei Aborttests und einen unbemannten Flug durchführen. Auch bei den Aufträgen im Manifest sieht man das Vertrauen zu SpaceX. Es sind ausschließlich preiswerte Missionen oder Missionen, bei denen die NASA nur teilweise involviert ist wie die europäisch-amerikanischen Missionen JASON-3 und Sentinel 3.

Nicht viel anders ist es bei der US-Luftwaffe, eigentlich nicht verwunderlich. Ich würde auch keine Starts bei jemanden buchen, der mich verklagt. Die Aufträge wurden entweder durch Erpressung ohne Ausschreibung zugeschanzt oder es sind „schlüsselfertige“ Aufträge, bei denen die USAF nicht einen Satelliten und einen Start ordert, sondern einen Satelliten betriebsbereit im Orbit. Dann kann der Satellitenhersteller frei den Launch service Provider wählen. Prominentestes Beispiel war die verlorene ZUMA-Nutzlast vor einem Jahr.

Und es kommen auch Nachrichten aus einer anderen Ecke: Als wäre das was SpaceX baut nicht schon schlimm genug, kam nun auch heraus das ein Ingenieur bei einem Zulieferer jahrelang Testprotokolle gefälscht hatte, damit die Firma weiter Auftragnehmer bleibt. Besonders pikant: Das scheint in der US-Raumfahrtindustrie gängig zu sein und fehlerhafte Teile, deren Prüfungsprotokolle gefälscht waren, waren auch verantwortlich für den Verlust von zwei Taurus und damit zwei NASA-Missionen.

Fazit

Mögen die SpaceX Fanboys die Firma im Aufwind sehen, ich sehe es anders. Die Startrate sinkt, sechs Starts in fünf Monaten, das sind aufs Jahr hochgerechnet dann 14 bis 15. Letztes Jahr waren es noch 21 und das, obwohl man nun ja viele eigene Starts hat, also völlig unabhängig von anderen Aufträgen ist.

Erneut Finanzierungsbedarf, obwohl Google schon mal 1 Milliarde für Starlink gegeben hat. Das reichte anscheinend für 60 Satelliten. Ich denke für weitere 12.000 wird auch diese Milliarde nicht reichen. Das Launchmanifest schrumpft trotz weniger Starts weiter – sprich, obwohl sie weniger Starts machen, gibt es trotzdem weniger neue Aufträge als Starts, was die Startrate auch in Zukunft weiter absenkt. Das es interen anders aussieht zeigt auch die Firmengröße – zu den Falcon 9 Starts und den CRS-Starts kommen nun ja noch Falcon Heavy Starts, Starlink Starts, Crewed Dragon Starts und natürlich die BFR-entwocklung. Da sollte man annehmen die Zahl der Angestellten steigt rapide an. Ist aber gerade anders herum: Im Januar hat man 577 aus dem Hauptquartier entlassen. Das sind 10 % der 6.000 Angestellten. Mehr Projekte mit weniger Leuten? Woanders stellen Unternehmen Leute ein, wenn sie expandieren und ich glaube auch bei SpaceX wird man nicht mehr mit weniger Personen machen können. Es geht also bergab.

Und dann die tolle Idee, den Kunden zu verklagen, der 2/3 des Manifests füllt und dabei noch höhere Preise bezahlt: die Regierung. Wie doof muss man denn dazu sein? Es muss schon arg schlecht um SpaceX stehen, wenn man schon Angst vor zukünftigen Konkurrenten hat und das lässt auch einige Rückschlüsse auf die BFR zu, die offiziell ja so viel besser und billiger ist. Ich prophezeie, das wird das Nächste von SpaceX eingestellte Projekt.


 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99