Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 549: 28.3.2019 - 4.4.2019

28.3.2019: Die direkte Landung in fünf Jahren

Da Vizepräsident Mike Pence in fünf Jahren wieder Menschen auf dem Mond landen will, habe ich mir mal gedacht – dem guten Mann muss geholfen werden. Ich habe meine Meinung dazu schon geäußert. Es geht eigentlich nur mit der direkten Landung und dass will ich durchrechnen. Die direkte Landung oder das EOR-Verfahren ist von der Masse, die zum Mond transportiert wird, die ungünstigste, aber man benötigt keinen Mondlander und der existiert nicht und ist meiner Ansicht nach auch nicht in 5 Jahren zu entwickeln.

Ich spare mir, da das Rechnen Programme erledigen den kompletten Rechenweg, nenne aber die relevanten Zahlen, sodass jeder sie nachvollziehen und nachrechnen kann.

Die Vorgehensweise

Bei der direkten Landung landet die Kapsel (Orion) ohne in eine Umlaufbahn einzutreten direkt auf dem Mond. Die Astronauten machen ihre Forschung und steigen wieder ein und sie startet direkt zur Erde. Dafür gibt es Vorbilder: Surveyor landete direkt und Luna E-2 startete direkt zurück. Das ΔV von Surveyor ist bekannt: 2.600 m/s. Es muss symmetrisch sein, also auch ein ΔV von 2.600 m/s beim Rückstart. Für eine bemannte Landung wäre noch etwas mehr nötig. Surveyor wurde schnell abgebremst durch einen Feststoffantrieb. Das reduziert die Gravitationsverluste. Ich rechne für die längere Brennzeit eines Motors mit flüssigen Treibstoffen 100 m/s mehr dazu. Dazu noch 200 m/s für eine Schwebphase. Das erlaubt 130 s Schweben. Beim Rückstart braucht man die Schwebephase nicht, da bleibt es bei 2700 m/s. Also Fakt Nummer 1:

ΔV Landung: 2.900 m/s

ΔV Start: 2.700 m/s

Die Hardware

Mit den Fakten können wir arbeiten, und zwar rückwärts. Wir rechnen zuerst den Rückstart durch. Dazu startet ein Orion-Modul mit Orion-Servicemodul. Das fasst nur 9 t Treibstoff. Ich nehme an, dass was man mehr braucht für 2.700 m/s ΔV. Das soll dann bei einem Voll/Leermasseverhältnis von 8:1 erfolgen wie bei großen Stufen – man benötigt die ganzen Systeme für die Besatzung nicht, nur mehr Treibstoff. Das Space Shuttle OMS Triebwerk im Servicemodul habe ich durch das Aestus ersetzt, das hat einen höheren spezifischen Impuls.

Mit den 9 t Treibstoff kann man die Geschwindigkeit um 1.480 m/s ändern. Es fehlen also noch 1.220 m/s. Das macht bei einem Strukturfaktor von 8 eine Startmasse von 38.062 kg bei einer Servicemodultrockenmasse von 6.570 kg. Man benötigt um abzuheben, mindestens 3 Triebwerke, ich habe mal 4 angesetzt, dann beträgt die Startbeschleunigung von 3 m/s ansteigend auf 6,7 m/s zu Brennschluss.

Also rund 38,1 t beim Rückstart. Für die Landung habe ich mir die Falcon 9 Drittstufe wegen der Schubreduktion ausgesucht. Da sie flüssigen Sauerstoff an Bord hat, noch 1 t für eine Isolation und eine Rückverflüssigungsanlage. Dazu benötigt man ein Gestell zum Landen und RCS-Triebwerke mit eigenem Treibstoff, das soll weitere 2 t wiegen.

Für ein ΔV von 2.900 und 38,1 t Nutzlast benötigt an so eine Stufe mit einer Startmasse 69.441 kg bei einer Landemasse von 6.322 kg. Die Gesamtstartmasse beträgt dann 107.541 kg.

Bei Reduktion auf 40 % Schub beträgt die Beschleunigung ohne Treibstoffe noch 8,2 m/s, das wäre zu hoch. Eine Lösung wäre wie bei Surveyor und beim russischen Mondprogramm die Stufe abzuwerfen, sobald man den größten Teil der Geschwindigkeit abgebaut hat und dann mit dem Servicemodul zu landen. Druckgeförderte Triebwerke sind relativ einfach im Schub steuerbar, indem man die Triebstoffzufuhr drosselt. Das würde auch Gewicht bei der Landestufe sparen und die Astronauten müssten nicht an ihr herabklettern oder sie könnte umfallen (bei der Landung ist sie fast leer, der Schwerpunkt daher weit oben im Servicemodul).

Ich komme daher mit einigen Reserven auf 110 t Startmasse in die TLI. In der Praxis sind es durch verbrauchte Gase und Flüssigkeiten und das „Nach-Oben-Runden“ eher einige Tonnen weniger.

Auf diese Nutzlast kommt eine SLS nie. Mit der EUS, die geplant ist, sind es etwa 40 t in TLI, mit anderen Oberstufen wie der ACES oder einem S-IVB Pendant mit J-2X zwischen 44 und 49 t. In jedem Falle kommt die SLS selbst bei einem Doppelstart nicht auf die 110 t. Es gäbe nun zwei Möglichkeiten:

Drei Starts werden sehr schwierig. Kein Einzelteil hat die passende Masse für einen Einzelstart in eine Erdumlaufbahn. Man müsste also komplexe Bahnaufweitungen und Ankopplungen durchführen oder es fertigbringen drei SLS in einem engen Zeitfenster zu starten, was bei nur einem Pad problematisch ist.

Daher wäre ich für die 4-BoosterVariante der SLS die selbst mit EUV Oberstufe, das ganze in zwei Starts abwickeln kann – den Ersten mit Rückstartstufe in einen exzentrischen 440 x 80.000 km Orbit, der Jahre stabil ist und der zweite dann mit der Orion und Treibstoff um die Umlaufbahn zu verlassen. Mit vier SRB kommt die SLS ohne Problem auf rund 65 bis 70 t in eine TLI, mit zwei Starts liegt man dann deutlich über den geforderten 110 t. Es wäre sogar mit einem 4-Booster und einem 2-Booster Start (für die Besatzung wegen der kleineren Spitzenbeschleunigung) zu schaffen.

Fazit

Kurzum: mit dem EOR-Verfahren wäre es tatsächlich machbar – man müsste nur eine Landestufe entwickeln, das Servicemodul der Orion verlängern, um mehr Treibstoff mitzuführen und vier Triebwerke einbauen, die EUS-Oberstufe entwickeln und die SLS mit vier Boostern ausstatten - alles keine großen Entwicklungen, die man in 5 Jahren problemlos schaffen kann. Ich vermute aber der Plan bleibt ein Plan, zumal er ja nicht mal von Trump, sondern von Pence stammt. In einigen Wochen redet keiner mehr drüber.

1.4.2019: Es werde Licht

Schaut man in Jesco von Puttkamers Buch „Der erste Tag der neuen Welt“, so findet sich dort auch eine Prognose der Industrialisierung des Weltraums. Produktion von Gütern im Weltraum um das Fast-Vakuum und die Schwerelosigkeit zu nutzen. Riesige Kommunikationssatelliten, für Empfänger in der Armbanduhr, und auch Energiefarmen, die dann die Energie als Mikrowellen zur Erde schicken, wo sie riesige Antennenareale empfangen und wieder in Strom umwandeln. Wie wir alle wissen, kam das nie. Inzwischen haben wie so etwas wie eine Weltraumindustrie 2.0, also eine Vielzahl von kleinen Start-ups aber auch großen Unternehmungen für neue Projekte im Weltraum. Bisher decken diese aber noch die alten Anwendungsgebiete ab, nur meist kleiner. Erdbeobachtungssatelliten sind dann eben noch tonnenschwer sondern einige Kilo bis einige hundert Kilo schwer und dafür zahlreicher. Kommunikationssatelliten wie von OneWeb oder Teledisc wiegen nur einige Hundert Kilo und werden in Serie gebaut. Aber die Anwendungen sind die gleichen wie vor Jahrzehnten: Kommunikation und Erdbeobachtung.

Nun ist das japanische Unternehmen SpaceDawn angetreten ein neues Feld zu erschließen. Die Firma will erstmals die Energie im Weltraum nutzen, nur nicht so wie von Puttkamer prophezeit, sondern direkt, indem sie Ballungsräume beleuchtet. Das geht über riesige verspiegelte Flächen, die im geostationären Orbit stationiert wird. Ein Satellit dort hat mit Ausnahme von zwei kurzen Perioden um die Tag/Nachtgleiche um den 21.3. und 21.9 dauernd Sonnenlicht. Das wird mit dem Spiegel auf die Zone der Erde gelenkt, die man belichten will.

Die Firma hat schon eine Förderung von der JAXA bekommen und wird in zwei bis drei Jahren einen ersten Versuchssatelliten zusammen mit dem Astronomiesatelliten Astro-I (ein Satellit wird erst nach dem Start in Japan mit einem Namen versehen) starten. Neben dem kostenlosen Start bringt die JAXA ihre Expertise in Sonnensegeln ein. Die JAXA startete zusammen mit der Raumsonde Akatsuki auch das Sonnensegel Ikaros. Auf der Technologie der Sonnensegel soll auch der erste Satellit von SpaceDawn Dawn-1 basieren. Wie diese hat er ein entfaltbares Segel aus Mylarfolie, bedampft mi Aluminium als reflektierender Schicht. Ebenfalls von Ikaros übernommen wurden die Dünnfilmzellen im inneren Teil des Segels als Oberflächenschicht, die den Satelliten mit Strom versorgen. Neu wird vor allem die Größe sein: bei einer Startmasse von ungefähr 500 kg wird das Segel 200 kg wiegen. Das ist zehnmal mehr als bei Icaros. Dawn-1 hat die primäre Aufgabe die neu zu entwickelnden Stützverstrebungen zu erproben – bei den geplanten Größen kommt man nicht mit Peitschenauslegern wie Ikaros aus. Stattdessen sollen einzelne Segmente beim Entfalten einrasten und das muss problemlos überall erfolgen. Ebenso wird die Steuerung des Sonnensegels erprobt. Es soll sich vom LEO in den GEO heraufspiralen. Zur Bahnkorrektur sind Ionentriebwerke vorgesehen. Die Erde beleuchten wird Dawn-1 noch nicht.

Weitere drei bis vier Jahre später soll dann der erste operative Satellit Dawn-2 folgen. Er wiegt mit 3.000 bis 4.000 kg schon deutlich mehr, und das Segel macht nun schon 2/3 bis ¾ der Masse aus. Dawn-2 wird die Beleuchtung aus dem All erproben aber auch die Stabilisierung mit Sekundärsonnensegeln, die schräg zum Hauptsegel stehen und so das Hauptsegel drehen anstatt Ionentriebwerken.

Dawn 2 wird eine Fläche von rund 1000 km² beleuchten. Das ergibt sich vor allem daraus, das man nachts viel weniger Licht braucht als am Tage. Bei senkrechter Einstrahlung der Sonne erreicht man eine Helligkeit von 160.000 Lux. Ziel ist eine Helligkeit von 10 Lux, wie sie in vielen Ländern vorgeschrieben ist (in der EU aber nur für Verkehrsreiche Straßen). Durch den Faktor von 16.000 zwischen beiden Werten deckt die Fläche von Dawn-2, die dann wohl bei 0,1 km² liegen würde, eine viel größere Fläche auf der Erde ab. Zum Teil unvermeidlich, denn das Bündel spaltet sich auf dem Weg zur Erde auf – dazwischen liegen ja 36.000 km und ganz plan wird es auch nicht sein. Zum Teil resultiert das auch an der Tatsache das die meisten Ballungsgebiete nicht am Äquator, sondern nördlich oder südlich davon liegen. Zuletzt kann man den Satellit auch so drehen, das er ein Gebiet nicht senkrecht beleuchtet, sondern schräg und so eine größere Fläche abdeckt. Trotzdem rechnet die Firma noch nicht damit, mit Dawn-2 Gewinn einzufahren, er wird ebenfalls als „experimental“ beschrieben.

Die operativen Satelliten werden dann Dawn-3 und folgende sein. Sie sollen mehr als nur eine hochskalierte Version von Dawn-2 sein. Die Größe ist unbekannt. Ein Sprecher sagte, er setze auf neue Träger, die in der Entwicklung seien und die Satelliten von 30 bis 50 t Gewicht transportieren können. Die Herstellungskosten und Operationskosten wären durch den Zentralkörper, einem normalen Satelliten, bestimmt. Daher würden die Satelliten im Verhältnis zur Fläche billiger, wenn sie größer würden. Dawn 3 und folgende sollen auch die Fähigkeit haben Hotspots zu setzen, also bestimmte Gebiete stärker zu beleuchten. Damit dürften aber wohl keine Fußballstadien, sondern immer noch Gebiete von Hunderten bis Tauenden Quadratkilometern Größe gemeint sein. Wie das gehen soll, lies der Sprecher offen. Von ihnen erhofft man sich auch mehr Einnahmen, indem ein Satellit mehrere Zonen versorgt. Als Beispiel wurde die Kombination Japan und die US-Ostküste genannt. Ein zwischen beiden Zonen platzierter Satellit würde sich jeden Tag einmal drehen, da wenn es an der Ostküste Nacht ist, in Japan es Tag ist und umgekehrt, so kann de Satellit die doppelte Zeit genutzt werden. Wie das geschehen soll, ist offen. Eine Lösung wäre eine elliptische geostationäre Bahn, wie bei IUE – bei dieser bewegt sich ein Satellit in Form einer „8“ über die Regionen, die er beleuchten soll.

Erst diese Generation wird Geld einspielen, wobei das Modell langfristig orientiert ist. Erst nach 10 Jahren wird ein Satellit seien Herstellungskosten eingespielt haben. Danach wird er praktisch aber unbegrenzt betrieben werden können. Als erster Kunde hat sich die japanische Regierung gemeldet, die auch das Projekt finanziell unterstützt. Japan ist durch die dichte Besiedelung und den Ballungsraum Tokio ein ideales Startprojekt. Zudem steigen dort nach dem Beschluss aus der Atomkraft auszusteigen die Strompreise kräftig an. Ebenso wären potenzielle Kunden zahlreiche Entwicklungsländer, die zwar meist billigen Strom haben, aber kein flächendeckendes Netz der Straßenbeleuchtung. Das könnten sich diese sparen und dessen Kosten würden die eines Satelliten bei Weitem übersteigen. Zur Zeit unrentabel ist es in den USA und dem größtem Teil von Europa, weil außerhalb von Deutschlands die Strompreise meist zu gering sind und das Netz gut ausgebaut.

Interesse hat auch das US-Militär bekundet, das bereit ist, für die Spotlight-Technologie Fördergelder zu vertreten. Warum dürfte wohl offensichtlich sein – damit kann man auch bei Nacht Krieg führen oder den Gegner durch Schlafentzug zermürben. Ebenso sollen variable Geometrien erprobt werden – also die Anpassung des beleuchten Gebietes an die Besiedlung anstatt einem rechteckigen oder kreisrunden Spot.

Noch gibt es keine Gegner, wahrscheinlich nehmen die noch kleine Firma nicht ernst, aber für mich liegen einige Gegenargumente auf der Hand. Naturschützer, die sich schon heute über die Straßenlaternen als Insektenkiller wenden, dürften über den Plan nicht erfreut sein. Auch mancher Bewohner dürfte sich nicht drüber freuen, denn es gibt dann keine Unterscheidung mehr zwischen Hauptstraße, die viel Licht braucht und Wohngegend mit spärlicher Beleuchtung. Das ist mit dem Konzept nicht umsetzbar. Was aber nach einem Firmensprecher denkbar ist, ist eine Kombination beider Systeme: eine Flächenbeleuchtung durch den Satelliten mit niedriger Helligkeit und dann eben noch Straßenleuchten an Hauptverkehrsstraßen. Wenn der Satellit auch 1 Lux kann, das ist die Empfehlung für Wohngegenden in Deutschland und etwa viermal heller als der Vollmond, dann würde selbst der kleine Dawn-2 schon die zehnfache Fläche von Berlin beleuchten können. Das wäre dann auch lukrativer denn natürlich steigen die Einnahmen mit der Fläche.

Hobbyastronomen können ihrem Hobby in Ballungsräumen noch weniger nachgehen und selbst professionelle Astronomen die weitab der Ballungsräume ihre Sternwarten haben dürften zwar nicht durch die direkte Beleuchtung betroffen sein, aber durch die Tatsache, dass dann dort ein helles Objekt am Himmel ist. Dawn-2 wird auch bei schrägem Blick, sodass man nicht direkt angestrahlt wird, sehr hell strahlen und damit die Beobachtung alles, was um ihn herum sichtbar ist unmöglich machen. Dawn 3 und weitere Satelliten werden dann noch größer und heller sein. Da sie geostationär sind, sind so ganze Zonen des Himmels dauerhaft nicht mehr beobachtbar.

Ob das klappt, ist offen, aber immerhin es wäre die erste Firma, die ein neues Anwendungsgebiet für die kommerzielle Raumfahrt erschließt.

2.4.2019: Evident und Empirisch

Ich nehme die beiden Wörter mal als Aufhänger, um auf die Unterschiede in verschiedenen Wissenschaften hinzuweisen, was die Vorgehensweise, aber auch was eine „wissenschaftlich abgesicherte Tatsache“ ist. Ich fange mal mit meinem Primärstudium an: Lebensmittelchemie.

Die Lebensmittelchemie ist – wie vielleicht auch der Laie erraten kann – ein Teilgebiet der Chemie. Als ich studierte, war das Institut auch im gleichen Gebäude wie die Chemie untergebracht, nach meinem Studium wurde es nach Hohenheim ausgegliedert, da dort die Ernährungswissenschaften sind. In der Chemie führt man Experimente durch, um Dinge aufzuklären. Zum Beispiel, welche Vorgänge beim Braten ablaufen, welche Verbindungen entstehen. Es gibt etliches, was man in den Lebensmitteln so untersuchen kann wie Abbauprozesse, Reifungsprozesse, Veränderungen beim Kochen oder Bildung von Aromen. In dem Institut, in dem ich studierte war, das Spezialgebiet die Maillardreaktion, eine Reaktion, die aus Zuckern und Aminosäuren braune, aromatische Verbindungen bildet, die beim Anbraten von Fleisch oder beim Backen von Brot entstehen. Jeder Doktorand untersuchte einen Weg genauer. Da es 20 Aminosäuren und etliche Zuckermoleküle gibt, gibt es etliche Reaktionswege und nicht nur einen.

Das zweite Standbein, und die Haupttätigkeit eines Lebensmittelchemikers, wenn er nicht zu den wenigen gehört die in der Forschung landen, ist die Analytik also das Untersuchen von Lebensmitteln. In meiner Studienarbeit habe ich beides gemacht: Primär habe ich eine neue Untersuchungsmethode für die Analyse von Pyridoxin, Vitamin B6 entwickelt, basierend auf schon existierenden Vorschriften. Ich habe aber auch die Veränderungen von Vitamin B6 untersucht, um festzustellen, wie schnell man arbeiten muss, was man beachten muss und ob es empfindlich gegenüber bestimmten Randbedingungen ist. Gottseidank war dem nicht so, mit einer Ausnahme: Eine Probenlösung, die ich für einen Test am Fenster platzierte verlor durch das Licht innerhalb von Stunden einen Großteil des Pyridoxins. Ich beschreibe das so ausführlich, weil das Ergebnis eine neue Vorschrift war, basierend auf den Experimenten. Diese muss nun von anderen Autoren nicht einfach so übernommen werden. Sie können sie überprüfen, z. B. zu einem Lebensmittel das kein Vitamin B6 enthält eine definierte Menge zusetzen und es nach der Vorschrift untersuchen und dann die gefundene Menge mit der zugesetzten vergleichen oder man kann diese Methode mit einer anderen schon etablierten Vorschrift vergleichen und sie sollte die gleichen Ergebnisse liefern.

In der Chemie ist jede Veröffentlichung durch andere experimentell überprüfbar und das sie überprüft wird ist auch die Regel. Das ist das was man in der Lebensmittelchemie als „wissenschaftlich abgesichert“ versteht.

Ich mache nun einen Sprung zur Medizin. Die Medizin hat die Aufgabe Krankheiten zu leiten. Auch in der Medizin gibt es wissenschaftlich abgesicherte Tatsachen. Doch die sind meist auf die molekulare Ebene beschränkt. Die Biochemie, von der man als Lebensmittelchemiker eine Ahnung haben sollte, klärt die Stoffwechselvorgänge im Körper auf, aber auch die Funktionsweise von Zellen. Sie ist eine Zwischendisziplin zwischen Chemie und Medizin, aber eher an der Chemie angesiedelt. Da auch ihre Erkenntnisse abgesichert sind, können auf ihnen Pharmaunternehmen aufbauen. Heute werden neue Medikamente nicht mehr per Zufall gefunden, sondern synthetisierte Stoffe mit Supercomputern mit allen möglichen Schlüsselmolekülen wie Enzymen oder Rezeptoren verglichen, ob sie irgendeine feste Bindung aufbauen und sich so als Medikament eignen.

Bei den meisten Krankheiten, die komplexe Ursachen haben und von denen ganze Organe betroffen sind, hat man aber das Problem, das die Ursache und die Prozesse so komplex sind, dass es keine wissenschaftliche Aufklärung in der Art, gibt wie in der Chemie. Die Wahl der Medizin ist daher die Studie. Man sucht sich also ein Kollektiv und führt mit ihm „Experimente“ durch in dem Sinne, dass man eine Therapie ausprobiert. Das klappt noch wirklich gut bei Krankheiten. Dann hat man ein homogenes Kollektiv, das eine Gemeinsamkeit hat, die Krankheit. Idealerweise nimmt man Personen mit ähnlicher Krankheitsgeschichte und anderen Ähnlichkeiten wie gleiches Geschlecht, Gewicht oder Alter. Vergleicht man diese Gruppe mit einer Kontrollgruppe mit einer schon etablierten „konservativen“ Therapie. So kommt man noch mit kleinen Gruppen aus. Denn man vergleicht zwei Therapien und der berüchtigte Placeboeffekt schlägt dann bei beiden Therapien zu. Mit Kollektiven in der Größe von etwa 100 Personen kann man so eine neue Therapie erproben. Im Idealfall ist die neue Therapie wirksamer und das beweist man anhand von statistischen Mitteln. Der eine Patient reagiert besser auf die Therapie als der andere, das heißt, die Ergebnisse schwanken um einen Mittelwert. Die Statistik erlaubt dann eine Aussage ob sich die beiden Ergebnisse (konservative und neue Therapie) signifikant unterscheiden. Auch dieses Resultat wird dann noch durch andere Ärzte überprüft und gibt es genügend Erfahrungen, so wird sie neue Therapie experimentell eingeführt und ersetzt dann nach noch mehr Patienten vielleicht die alte Therapie oder ergänzt sie für bestimmte Spezialfälle. Wesentlich problematischer ist es, wenn man nicht mit einer existierenden Therapie vergleicht, sondern diese neu ist, das heißt, die Kontrollgruppe bekommt keine Therapie. Dann wird man beobachten, dass durch den Placeboeffekt sich auch bei der Kontrollgruppe eine Besserung einstellt und um eine Therapie von diesem abzugrenzen, der je nach Anwendungsgebiet mit 20 bis 50 Prozent der Wirkung eines Medikaments angesetzt wird, braucht man wirklich viele Patienten. Vor allem wenn die Aussage sich nicht auf Kranke, sondern die Bevölkerung bezieht, also Alte und Junge, Männer und Frauen, Schwangere und Kinder bezieht, dann ist leicht zu erkennen, dass man enorm große Gruppen braucht für eine Aussage. Schon für klinische Studien, die gegen den Placeboeffekt abgrenzbar sein müssen, braucht man nach Angaben des deutschen Ärzteblattes um 1.000 Teilnehmer. Das können dann nur Pharmaunternehmen finanzieren. Um die angebliche Wirkung von Vitaminen gegen Erkältung zu kippen, mussten Wissenschaftler dann schon viele Studien zusammentragen, um auf über 10.000 Personen zu kommen.

Damit bin ich bei meinem dritten Wissensgebiet angekommen. Der Ernährungswissenschaft. Sie ist eigentlich ein Spezialgebiet der Medizin mit Kontakten zu Lebensmittelchemie (was die Zusammensetzung der Lebensmittel angeht), Biochemie (wegen der Wirkung) und Lebensmitteltechnologie (wegen der Verarbeitung). Das Grundproblem, das die Ernährungswissenschaft hat, ist aber das sie Aussagen über die Gesundheit für alle treffen muss. Also jede Altersgruppe, jedes Geschlecht, von der Geburt bis zum Tod. Die Medizin kann sich dagegen auf eine kurze Zeit für die Therapie und ein eingeschränktes Kollektiv mit einer Gemeinsamkeit, der Krankheit beziehen. Es ist eigentlich nicht möglich, aus einem kleinen kollektiv und einen kurzen Beobachtungszeitraum, auf alle Menschen und das ganze Leben zu schließen. In der Ernährung versucht man das Manko auszugleichen, indem man dann verschiedene Studien sichtet und nach Gemeinsamkeiten abklopft. Heraus kommt dann das ein Fakt „evident“ ist. Damit ist gemeint, dass es um die „gewissenhafte, ausdrückliche und umsichtige Gebrauch der aktuell besten Beweise“ geht. Im Prinzip: man kann es nicht beweisen, man vermutet aber aufgrund zahlreicher Untersuchungen von Studien folgenden Ursachen-Wirkungszusammenhang.

Als Lebensmittelchemiker habe ich aus den bisherigen Erfahrungen eine Abneigung gegen die „Evidenz“. Die leitet sich zum einen von den populären Ernährungsirrtümern ab. In meinem Studium habe ich schon gehört, das die meisten davon nicht bewiesen sind, sei es das Salz Bluthochdruck verursacht, Zucker Diabetes, oder Cholesterin Arteriosklerose. Alle diese sind inzwischen gekippt worden. Als letztes hat selbst die FDA ihre Einstellung zu Cholesterin gekippt. Nach den Maßstäben eines Lebensmittelchemikers waren alle Studien auf denen diese Behauptungen basierten nicht wissenschaftlich abgesichert. Nehmen wir mal Cholesterin. Schon als ich studierte wa durch Isotopenmarkierungen, einem Werkzeug der Biochemie bekannt, das 80 bis 90 Prozent des Körpereigenen Cholesterins nicht aus der Nahrung sondern vom Körper selbst stammt und bei jeder Mahlzeit mit den Vedauungssäften ein vielfaches des Cholesterins ausgeschüttet wird, das in der Nahrung vorhanden ist. Daraus folgten Chemiker, dass das bisschen extern zugeführte Cholesterin keine Auswirkung haben müsste. Die Ärzte hingegen passten noch Jahrzehnte später laufend ihre Grenzwerte nach unten ab, bis sie schließlich zu folgendem Ergebnis kamen: Die Landkarte zeigt, wie viel Prozent der Bevölkerung in Deutschland, nach den Grenzwerten der Ärzte, einen "therapiebedürftigen" Cholesterinspiegel haben. Da nun aber nicht 50 % der Bevölkerung krank sind, scheint das dann endlich eine Wende ausgelöst zu haben.

Das zweite ist, das heute das Wort „evidenz“ inflationär benutzt wird. Es gibt etliche Studien von Herstellern finanziert um etwas „zu beweisen“. Meist um etwas teuer zu verkaufen. Statistisch sind die oft schon in den Grundparametern fraglich, wie zu wenige Teilnehmer (ich habe schon Studien mit 16 oder 40 Teilnehmern gesehen) oder das Ergebnis ist statistisch nicht gesichert. Ein Beispiel findet sich in meinem Elastenbeitrag. Dann suchen sich die Hersteller alle Studien zu dem Thema zusammen, selbst nur Literaturreviews werden dann zu Studien und sagen dann, die Tatsache wäre „evident“ es gäbe ja so viele Ergebnisse dazu. Wenn aber jede Einzelstudie einen Mangel hat, so wird das Zusammenfassen den Mangel nicht beheben sondern nur verstärken.

Aber es gibt noch ein Wort, das hat bei mir einen noch schlechteren Klang. Es ist das Wort „empirisch“. An und für sich ist empirisch ja nicht schlecht, und früher stand ich ihm positiv gegenüber. Empirisch heißt im Prinzip „aus Erfahrung“. Empirisch kommen 70 % aller Züge zu spät. Das ist Erfahrungswissen. Es kann sein, dass man trotzdem einen erwischt der pünktlich kommt. Mit „empirisch“ habe ich meine Aussagen verziert, wenn ich gerade mal den genauen Nachweis nicht im Kopf hatte und ihn erst nachschlagen musste. Das hat sich radikal geändert, als ich Informatik studierte. Wir teilten ein Gebäude mit den Sozialwissenschaften, welche die ersten zwei Stockwerke belegten. Da kommt man ins Gespräch oder hört an der Bushaltestelle Gespräche und Sozialwissenschaften verwenden den Begriff inflationär. Praktisch alles, was dort an Erkenntnissen gefunden wird, ist „empirisch“. Es gibt sogar die Disziplin der „Empirischen Feldforschung“ (das heißt Leute füllen Fragebogen aus). Wer dieses Studium kennt, das geringe Anspruchsniveau und wie sicher dort „Erkenntnisse“ sind, der weiß, warum ich inzwischen das Wörtchen „empirisch“ mit „vermutet“ übersetze.

Wahrscheinlich haben andere Wissenschaften eine wieder andere Sicht. Ich denke aus Sicht der Physik wo ich alle Erkenntnisse in eine Formel packen kann wirkt die Chemie sehr unwissenschaftlich. Es gibt natürlich Reaktionsformeln, Enthalpien, aber die wichtigsten Mechanismen, wie bestimmte chemische Gruppen reagieren, lassen sich nicht in Formeln packen, ebenso wenig wie die Bedingungen für die Synthese in der Industrie gewählt werden. Die basieren zwar auch auf Erkenntnissen, aber eben auch auf Erfahrungswissen (wo man dann von der „Empirik“ wieder eingeholt wird). Ich denke immer noch mit Grauen an mein erstes Praktikum mit Physikern. Ich war in einem Extraraum mit diesen zusammen. Sie hatten eine vereinfachte Form des Praktikums und mussten nicht den ganzen Trennungsgang durchlaufen und konnten die wenigen Substanzen, die sie hatten, mit „Vorproben“ feststellen. Die Anführungszeichen, weil das bei uns eigentlich nur Indizien waren, die Hinweise lieferten, denn in unseren komplexen Proben gab es genügend Störsubstanzen, die man erst abtrennen musste. Bei den Physikern mit dein einfacheren Proben funktionierten sie dagegen einwandfrei.

Warum ich das erwähne? Weil man die komplett unterschiedliche Herangehensweise sieht. Physiker haben ihre Naturgesetze. Die gelten und es gibt also ein Ergebnis: ist vorhanden oder eben nicht. Sie haben also ihren Zettel stur abgearbeitet nach Vorschift ohne jegliches Gespür für die Probe. Also mal eine Vorgehensweise leicht variieren, wie etwas mehr einer Substanz nehmen, etwas länger erhitzen etc. Mein einschneidendes Erlebnis: Ein Physiker hatte eine himmelblaue Probe. Die Farbe kam von wasserfreiem Kobaltchlorid. Das Blau ist charakteristisch. Also sage ich ihm: „Du hast Kobalt drin, kannst Du schon mal abgeben“. Er macht die Boraxperle. Vermischt man Kobaltsalze mit Borax und schmilzt man das so bekommt man eine tiefblaue Farbe, das Blau kennt der eine oder andere vielleicht von altem Porzellan. Was macht er? Er nimmt viel Probe und wenig Borax und erhitzt – die Perle wird schwarz. Also kein Gespür für die Situation. Das ist eine Methode um Spuren von Kobalt nachzuweisen. Bei ihm ist die ganze Probe blau, nur eine Spur kann also nicht vorhanden sein, da ist massig Kobalt drin. Dann wird eben aus dem Blau durch die Intensität ein Schwarz. Ich wiederholte das dann. Nahm nur einen Krümel der Probe mit viel Borax und bekam eine wunderschön königsblaue Perle.

Das Beispiel zeigt, wie verschieden die Anforderungen von zwei Naturwissenschaften an die sind, die sie ausüben. Die eine hat einen strikten Ablauf gegeben durch mathematische Gleichungen und die andere verlangt Erfahrungswissen, Probieren, Experimentieren. Natürlich funktioniert auch in der Physik nicht alles, die Naturgesetze wechselwirken ja und decken so manch kleinen Effekt zu. Dann abreitet man im Fast-Vakuum, oder bei 3 Kelvin um die Störeinflüsse zu reduzieren. In der Chemie gibt es das auch Reaktionen, die vollständig quantitativ erfolgen, wie die Knallgasreaktion. Aber die meisten chemischen Substanzen sind komplexer aufgebaut und haben mehrere Möglichkeiten zu reagieren. Bei industriellen Synthesen erhält man selten nur ein Produkt. Wenn man Ortho-Dichlorbenzol herstellt, denn man als Ausgangsprodukt für weitere Synthesen braucht, wird man immer auch para-Dichlorbenzol erhalten. Die Industrie fand sogar dafür eine Anwendung: als WC-Stein.

4.4.2019: PlatzX Suborbitaltourismus

Auf den heutigen Blog komme ich durch diesen Artikel in den SpaceReviews. Er beschäftigt sich mit dem wirtschaftlichen Aspekt von Suborbitaltourismus mit dem PlatzX Geld verdienen will, um ihre Marspläne zu finanzieren.

Ich habe mich damit nicht beschäftigt, weil es für mich offensichtlich ist, dass es wirtschaftlich nicht klappt. Seit Jahren offeriert Virgin Galactics (inzwischen: The Spaceship Company) suborbitale Hopser mit einer Gipfelhöhe von 100.000 m für 250.000 Dollar. Man kann leicht ausrechnen das man dafür nur eine Spitzengeschwindigkeit von 1400 m/s, rund 5.040 km/h oder zwischen Mach 4 und 5 braucht, wenn man vom Erdboden aus startet. Wenn wie in diesem Fall man in der Stratosphäre startet, dann noch weniger. Als Spitzengeschwindigkeit von SpaceShip Two werden nur 4200 km/h genannt. Dagegen ist die Geschwindigkeit für transatlantische Strecken viel größer. Hier die theoretischen Mindestgeschwindigkeiten auf einer optimalen Bahn:

Strecke

Distanz

Geschwindigkeit

Frankfurt → New York

6.199 km

~ 6.300 m/s

Frankfurt → Los Angeles

9.297 km

~ 7.100 m/s

Frankfurt → Hawaii

12.070 km

~ 7.500 m/s

Frankfurt → Melbourne

16.331 km

~ 7.840 m/s

Die Tilde steht dafür das dies die Geschwindigkeiten nach den Bahngesetzen sind. Sie beruhen auf einem Startpunkt an der Erdoberfläche, was aber nicht der Fall ist, sie sind aber relativ genau. Mit einer Gleitphase (man denke an Sängers Antipodengleiter) kann man die Geschwindigkeit reduzieren. Das habe ich mangels Berechnungsmöglichkeit nicht berücksichtigt. Man erkennt leicht das man sich immer mehr der Orbitalgeschwindigkeit von 7912 m/s am Erdboden nähert. Vergleichen mit dem Suborbitaltourismus braucht man also die vier bis fünffache Geschwindigkeit und die Anforderungen an das Vehikel beim Wiedereintritt sind auch höher. Wie bitte soll man dann auf bezahlbare Preise kommen. Aus wirtschaftlichen Gründen sah ich das daher schon als unsinnig an.

Ich will mich in diesem Blog, aber mal um die praktische Umsetzung kümmern, auf den wirtschaftlichen Aspekt komme ich erst am Schluss zurück.

Anbindung an Flughäfen

PlatzX wird sicher nicht ein neues Verkehrsmittel aus dem Stand schaffen können. Sie sind abhängig von der Anbindung an andere Verkehrsmittel. Wie bei der Concorde die nur von London oder Paris nach New York flog, wird man wenige Flughafen bedienen. In den USA wahrscheinlich einen an der Ost- und Westküste, in Europa einen oder zwei usw. wie heute schon, wenn man zu etwas exotischeren Reisezielen will, werden die Passagiere von anderen Flughäfen dort anreisen, wahrscheinlich auch per Flugzeug, so wie man heute von Stuttgart nach Frankfurt fliegen muss. Daher wird man am besten die Start/Landeplätze an einem Flughafen haben.

Die werden das aber nicht gerne sehen. Wenn heute jemand eine Rakete startet, braucht er eine Genehmigung der FAA. Dann wird der ganze Luftraum in einem sicheren Abstand gesperrt, solange der Start läuft. Bei einem Flugplatz, wo im Minutenabstand Flugzeuge starten und landen, legt das den ganzen Betrieb lahm. Nicht nur das – alle ankommenden Flugzeuge müssen eine Warteschliefe drehen. Die Ankunft verzögert sich um die Zeit der Sperrung, was weder dem Flugplatzbetreiber noch den Passagieren recht ist. Selbst wenn es nur eine halbe Stunde ist – kürzer wird es nicht gehen, denn die Erststufe soll ja wieder nach dem Start landen und muss danach gesichert werden. Dann fällt bei nur einem Start und einer Landung am Tag der Flugplatz für eine Stunde aus und das wahrscheinlich genau dann wenn sowieso Hochbetrieb ist. Das macht kein Betreiber mit. Man muss nur mal an das Chaos bei Gatwick wegen einer Sperrung wegen Drohnen oder letztes Jahr in München als eine Frau ohne Sicherheitskontrolle ins Flugzeug stieg und jeweils der ganze Airport gesperrt wurde denken.

Risiken

Es gibt noch andere Risiken, die ein Flugplatz nicht so gerne hat. Zweimal ist eine Falcon am Boden oder kurz nach dem Start explodiert – will man so etwas nahe von Flugzeugen haben? Wohl kaum. Dazu kommen die großen Mengen an Treibstoffen, die man sonst nicht im Einsatz hat (Methan und flüssiger Sauerstoff) und die man sicher weit weg von allen Bereichen haben will, in denen Passagiere oder Flugzeuge sind.

Diese sind auch ein Kontraargument für andere Plätze. PlatzX hat ja demontiert das sie auf einem Punkt landen können. So wäre ja ein Start von einem Dach eines Wolkenkratzers möglich – nun ja wenn nicht einer der häufigen Fälle auftritt, in denen die Stufe das Drohnschiff verpasst oder bei der Landung umkippt. Was passiert, wenn sich dann Tonnen von brennbaren Flüssigkeiten auf einem Wolkenkratzer entzünden, wissen wir seit dem 9.11.2001. Auch dort würde man nicht die Treibstoffmengen haben wollen – die gesamte Rakete wird rund 900 t Treibstoff und 3400 t Sauerstoff aufnehmen – da ist die Treibstoffzuladung der Passagierflugzeuge klein, mal abgesehen, ob die Konstruktion des Wolkenkratzers weitere 4.500 t auf dem Dach aushält.

Sicherheitsabstände

Auch beim Boden sieht es nicht so toll aus. Es sind die Sicherheitsabstände, die das ganze problematisch machen. Bei Raketenstarts nähert sich niemand mehr als einige Kilometer der Startrampe. Nicht nur wegen der Gefahr einer Explosion – 900 t Methan haben bei der vollständigen Verbrennung mit Sauerstoff eine Energie von 5.100 GJ oder 12,6 kt TNT – also im Bereich einer Atombombe. Als die erste Saturn mit Apollo 4 startete hatte man noch keine Erfahrung mit den Kräften die diese Rakete entwickelte. Reporter dürften sich bis auf 5 km an die Rakete nähern. Als die Triebwerke zündeten, fielen in den Studios Teile der Deckenverkleidung ab, Journalisten drückten mit ihren Händen gegen die Fenster, die so sehr zitterten, das sie befürchteten, sie würden brechen. Danach wurde der Sicherheitsabstand auf 12 km erhöht.

Die Saturn hatte einen Startschub von 34 MN, die BFR soll auf 61,8 MN kommen, also noch mehr. Man kann daher von einer mindestens genauso großen, wahrscheinlich größeren Sicherheitszone ausgehen. Wo aber gibt es in den dicht besiedelten Ballungszentren Zonen mit einem Durchmesser von 24 km, in denen sich niemand aufhalten darf oder wo die Bewohner dann vor jedem Start evakuiert werden? Nirgends. PlatzX kann so nur neue Startplätze in dünn besiedelten Gebieten irgendwo in der Pampa aufbauen und selbst dort wird es teuer, man müsste zumindest in der unmittelbaren Startzone das gesamte Land aufkaufen. In Brownsville will PlatzX nur für Falcon 9 und Falcon Heavy 100 Millionen Dollar investieren, etwas geringere Beträge waren jeweils fü die Umrüstung schon existierender Startrampen nötig, da konnte man immerhin die restliche Infrastruktur von VAFB und CCAF nutzen. Ich gehe mal davon aus, das Anlagen für die VFR noch teurer werden und für zwei Punkt zi Punkt Verbindungen braucht man zwei Startplätze. Auch zeigt Brownsville mit den Sicherheitsmaßnahmen (siehe wikipediaartikel) wie problematisch Starts in Industrieländern sind, wenn man nicht gerade direkt am Meer oder auf einer Militärbasis ist.

Zeitkette

Ich bezweifele nicht das es genügend Kunden gibt, die gerne für viel Geld Zeit einsparen. Die gibt es ja heute schon. Unzählige Reiche haben Privatflugzeuge. Ihr Hauptvorteil ist das sie einfach starten können, wann sie wollen, ohne auf den nächsten Linienflug zu warten und ohne zwei Stunden in der Sicherheitskontrolle zu verbringen. Manch wie John Travolta haben sogar eine ganze Flotte. Das sind durchaus nicht nur kleine Jets wie ein Learjet. Es werden auch komplette große Passagierflugzeuge nur für eine Person bereitgehalten. John Travolta hat z. B. Eine Boeing 707 inklusive eigenem Flugplatz mit zwei Start/Landebahnen. Dabei geht es nicht nur um Privatsphäre die könnte man auch haben, wenn man die ganze erste Klasse mietet. Verglichen mit diesem Hobby ist dann auch ein Suborbitalflug nicht teuer. Dazu kommen die Personen, für die Zeit Geld ist. Wer als Manager viel reisen muss kann ausrechnen, was die Firma das kostet. Ein Spitzenmanager der 10 Millionen Euro pro Jahr kostet, bei 250 Arbeitstagen mit je 14 Stunden, kommt auf einen Stundenlohn von knapp 3.000 Euro – wenn dann ein Flug ans andere Ende der Welt einen Tag dauert, dann ist das nicht billig. Im Suborbitaltourismus ist man in spätestens 90 Minuten da, Beschleunigungs- und Abbremsphasen mit eingerechnet.

Doch das rechnet sich nur, wenn die Zeitkette stimmt. Wenn jemand erst zu einem der Abflugplätze per normalem Flugzeug anreisen muss, dann noch in Pampa raus fahren und es dann nur einen Flug pro Tag gibt dann ist der Zeitvorteil einfach weg, zumindest bei den mittelgroßen Strecken. Für Flüge nach Tokio oder Melbourne ist er noch gegeben. Gut PlatzX hat dafür sicher eine Lösung – sie verbinden die Flughäfen in denen die Kunden ankommen mit den Raketenstart/Landeplätzen per Hyperloop, das geht dann wieder ganz schnell. Nur schlägt dann das nächste Problem zu:

Passagierzahl

Offen ist wie viele Passagiere PlatzX transportiere will. Daten sind spärlich. Die zweite Stufe soll leer 85 t wiegen und der Kabinenteil soll 1.100 m³ Volumen haben. Damit man einen Vergleich hat: Eine Boeing 737 wiegt in der 800-er Version, der am meisten produzierten Version 67,7 t leer, hat ein Gesamtinnenvolumen von 167 m³ und mximal 189 Passageiere (allerdings geht davon ein Großteil ab für die Fracht). Rechnet man die Treibstofftanks der BFR ab, so dürfte, dürfte das Gewicht vergleichbar sein. Das Volumen ist größer und die Nutzlast von 150 t ebenfalls. Es gibt nun zwei Herangehensweisen:

Ich vergleiche mit einem Flugzeug. Die 150 t Nutzlast entsprechen 1.000 Passagieren mit Gepäck, wahrscheinlich sogar mehr. Ebenso ist das Volumen sechs mal größer als bei einer B-737, das heißt 1.000 bis 1.200 Passagiere bekommt man locker unter, wenn sie so viel Platz wie in einem Flugzeug haben. Aus Operatorsicht ist das auch das sinnvollste. Sie bleiben die ganze Zeit angeschnallt, denn die schwerelose Phase dauert maximal 45 Minuten. Niemand will in wenigen Minuten 1.000 Leute wieder anschnallen und das müssen sie, wenn de Wiedereintritt beginnt mit den starken Verzögerungskräften. Dann muss ich aber auch pro Flug so viele Personen zusammenbringen und das wird problematisch. Gerade ist der Airbus A380 eingestellt worden. Er war einfach zu groß. Die wenigsten Linien hatten einen Bedarf für ein so großes Flugzeug für so viele Passagiere. Und nun reden wir von noch mehr Passagieren pro Flug.

Möglichkeit 2: ich biete Schwerelosigkeit als Erlebnis an. Dann habe ich wenige Passagiere. Zero-G Flüge gibt es ja schon. Die Raumfahrtagenturen führen welche durch. Nur: Da gibt es keine Inneneinrichtung. Das Flugzeug ist ausgeweidet und ausgepolstert. Die Teilnehmer/innen wurden vorher medizinisch gecheckt und vor allem dürften schon Stunden vorher nichts essen – etwa einem Drittel der Teilnehmer wird nämlich übel. Die Kotztüte bekommt jeder vor dem Start ausgehändigt. Ich glaube nicht, dass man sich das mit vielen Passagieren antun will. Jeder braucht auch Freiheit zum Schweben, Purzelbaum schlagen und an den Fenstern dürften sich die Leute stauen. Wenn ich 8 m³ (2 m x 2 m x 2 m) pro Passagier ansetze, geht die Zahl aiuf 120 zurück – wahrscheinlich, wenn man bedenkt, dass bald nach der schwerelosen Phase der Wiedereintritt ansteht, immer noch eine zu große Zahl. Ich würde schätzen das es deutlch unter 100 sind, auch weil man erst mal pro Flug so viele zahlende Gäste bekommen muss.

Gesundheitsaspekte

Schon Flugzeug fliegen kann nicht jeder, aber Raketen sind noch etwas anderes. Beim Space Shuttle sollte ja „Jeder“ mitfliegen können. Die Spitzenbeschleunigung betrug 3 g. Deutlich niedriger als in einer Saturn V (4,7 g) oder Sojus (4,3 g). In den meisten Fällen sitzen die Passagiere in Konturensesseln, speziell für sie angefertigt. Wenn ich davon ausgehe, das 3 g das Maximum ist, das ein Mensch ohne spezielles Training (ein Basistraining durchliefen aber auch die Nicht-Astronaut-Passagiere beim Space Shuttle wie Politiker, Ingenieure, Journalisten oder Prinzen) aushalten kann, dann darf die BFR nicht über 3 g beschleunigen. Die Daten der BFR sind noch hoch spekulativ, doch nehme ich die Daten der englischen Wikipedia für BFR und Raptor und rechne ich mit hohen Strukturfaktoren, so hat die erste Stufe vor Brennschluss eine Beschleunigung von 4,1 g und die Zweite (bei 150 t Nutzlast) sogar auf 6 g. Das ist deutlich zu hoch für einen Transport von Jedermann ohne medizinischen Check, einfach mal so.

Kostenabschätzung

Anders als der Artikel in Space Review gehe ich von Raketen aus. Erst mal die „Low Cost“ Abschätzung. Ich nehme mal die Falcon Heavy als Basis, sie liegt von der Nutzlast der BFR am nächsten. Sie sollte mal 135 Millionen Dollar kosten, bei 40 % der Nutzlast der BFR, also diese dann rund 300 Millionen Dollar. Die erste Stufe soll bei der Falcon 100-mal wiederverwendbar sein, das ist sportlich, bedenkt man das die SSME maximal 55-mal schafften und wir reden hier über dünne Tanks und nicht nur massive Triebwerke. Aber gehen wir mal von 100 x aus, so sind das 3 Millionen Dollar pro Flug. Der Treibstoff kostet nach Musks Angaben auch 1 % der Kosten eines normalen Starts, das addiert weitere 3 Millionen Dollar. Zuletzt muss der Start durchgeführt werden. Da sind bei normalen Raketen 20 bis 30 % der Gesamtkosten fällig. Nehmen wir die niedrigere Ziffer und eine Reduktion auf 2 % also ein Zehntel (alle 10 Flüge müssen ja die Stufen generalüberholt werden und bei den klassischen Startkosten ist einer Landung und alle damit verbundenen Vorgänge gar nicht dabei) so ist man bei weiteren 6 Millionen Dollar.

Selbst in disem optimistischen Szenario würde man also 12 Millionen Dollar für einen suborbitalen Flug zahlen. Da ich nicht rechne, das sie mehr als 100 Passagiere pro Flug zusammenbekommen sind das 120.000 Dollar pro Flug und dies nicht einmal, sondern dauerhaft, bei 365 Flügen pro Jahr zwischen zwei Punkten. Ich glaube anfangs wird man sicher die Zahl bekommen bis alle, die es sich leisten können, einmal die Erde aus dem All gesehen haben, doch nicht dauerhaft.

Daneben halte ich diese optimistischen Kosten noch für unterschätzt, wenn Virgin Galactics suborbitale Hüpfer für den Preis anbietet und dafür 250.000 Dollar für 8 Passagiere bei knapp 10 t Startmasse anbietet. Dann müsste ein 400 x größeres Vehikel 400 x teurer sein, es transportiert aber nicht 400 x mehr Passagiere sondern, wenn es 100 sind, nur 12,5 mal mehr. Mithin wäre ein Sitzplatz 8 Millionen Dollar teuer. Meine persönliche Schätzung (ohne irgendeine Einsicht in die Kosten oder Gewinnmargen kann es nur Spekulation sein) wäre diese:

Die Falcon Heavy kostet 135 Millionen pro Flug bei 75 % Bergung, die BFR ist dreimal schwerer und teurer. Wenn ich noch den Faktor 2 berücksichtige für Bergung der Oberstufe und mehr Routine bei mehr Flügen, dann komme ich auf 200 Millionen Dollar pro Flug oder 2 Millionen pro Passagier (bei 100).

Alternative Kurzorbitaltourismus

Den Knackpunkt am Konzept sehe ich darin genügend zahlungskräftige Passagiere zusammenzubekommen. Denn wie schon geschrieben, direkt neben einer Großstadt wird der Flughafen nicht sein. Mit Hyperloop mag man ihn anbinden können, doch das nützt auch nichts, wenn sonst niemand dorthin muss, dann sind das einige Hundert Passagier pro Tag, wodurch sich auch Hyperloop nicht rechnet. Aber es gibt eine Alternative: Es ist heute kein Problem Tausende von zahlungskräftigen Personen an einen abgelegenen Ort zur selben Zeit zu bekommen – bei Kreuzfahrten. Wenn PlatzX also nicht Suborbitaltourismus zur Reduktion der Reisedauer anstrebt, sondern einen Kurztrip in den Orbit, dann ist der Kundenkreis viel größer. Dann muss man sich nicht um die kurze Zeit der Schwerelosigkeit Sorgen machen. Man hat alle Zeit der Welt jeden Passagier vor der Rückkehr anzuschnallen. Natürlich wird man dann auch weniger Passagiere haben, denn die brauchen mehr Freiheit. Die Nutzlast von 150 t reicht in jedem Falle aus, um einen Orbit zu erreichen selbst mit Innenausstattung wie Trennwänden, Schlafkabinen etc., und wenn man auf die Tabelle sieht, ist die Geschwindigkeit für den Orbit auch nicht viel höher.

Es gibt andere Probleme. Die Leute wollen was essen und müssen aufs Klo. Ich mag mir nicht vorstellen was passiert, wenn nur einer der 100 untrainierten Passagiere mit der Weltraumtoilette nicht zurechtkommt oder die ausfällt (ist schon auf der ISS vorgekommen) oder welche Sauerei es gibt, wenn jemand nicht weiß, wie man in der Schwerelosigkeit isst. Da ich aber annehme, das ein längerer Aufenthalt im All ist, wie dauerhaft Achterbahn fahren – anfangs ein toller Trip, später gewöhnt man sich dran – mehr als sich in der Schwerelosigkeit drehen und aus dem Fenster schauen geht nicht – denke ich sollte man die Dauer so festlegen, dass die Leute ohne größere Mahlzeit auskommen und ohne Kot absetzen zu müssen, dann könnten sie beim Trip Windeln tragen – das tun die Astronauten bei EVA-Operationen und etliche Senioren auf der Erde auch. Trinken ist problemlos in der Schwerelosigkeit, mit geeigneten Gefäßen und Dinge, die nicht krümeln oder von denen leicht Partikel abgehen wie viele Obstsorten, Schokolade, kann man problemlos essen. Ich würde dann so einen Trip auf einige Stunden, idealerweise 12 oder 24 ansetzen. Bei 12 oder 24 Stunden kann man sogar wieder beim Startort landen. Zudem gäbe es für den Passagier bei nahezu gleichen Kosten einen deutlichen Mehrwert – anstatt nur einige Minuten Schwerelosigkeit und Blick auf die Erde ein halber oder ganzer Tag.

Ich glaube dieses Konzept könnte funktionieren. Jeder der ein Vermögen im zweistelligen Milionenbereich hat könnte sich so was leisten und das müssten auch genügend Kunden sein. Nur ob man so eine Marsmission finanzieren kann? Bei den hohen Kosten, um erst mal die Infrastruktur am Boden aufzubauen, glaube ich eher nicht.

Natürlich klappt, da nur wenn auch die veröffentlichten Zahlen von PlatzX stimmen. Die VFR ist ja schon einmal verkleinert worden. Die Nutzlast halte ich für deutlich zu hoch abgesetzt, vor allem wenn man beim Wiedereintritt noch aktiv kühlen muss. Ich vermute in einigen Monaten wird es sowieso wieder neue Daten, ein neues Konzept für die Finanzierung der Marsmission geben.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99