Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 498: 16.4.2017 - 21.4.2017

16.4.2017: Ein Vorschlag für Google

Eigentlich wollte ich das heutige Thema als Glosse in die Kolumne "Münchhausen" einfügen, doch beim überlegen dachte ich mir "eigentlich müsste es technisch möglich sein". Die Idee war das Google, das ja auch in Nicht-Computerbereichen forscht und investierte, darunter auch im Medizin/Pharmabereich eine Google Glases für alle die nicht gut sehen auf den Markt bringt. Das grundlegende Prinzip:

Eine kleine hochauflösende Kamera neben jedem Auge nimmt auf was der Mensch gerade sieht. Dies wird in die Brille projiziert. Das könnte man dann noch durch Informationen anreichern, doch schon diese Grundfunktion würde vielen helfen. Denn was gezeigt wird, das entscheidet der Benutzer selbst, indem eine zweite Kamera auf die Pupille schaut und sie verfolgt.

Das menschliche Auge ist relativ komplex gebaut und es ist schwer in wenigen Randzahlen zu beschreiben. So kann die Pupille zwischen 1 und 8 mm geöffnet werden und so mehr oder weniger Licht hereinlassen. Allerdings nimmt auch die optische Auflösung ab wenn die Pupille kleiner wird. Dann sind die Rezeptoren unterschiedlich auf dem Auge verteilt. In der Mitte die Zapfen die Farbsehen ermöglichen und eine hohe Auflösung bieten und außen die Stäbchen die viel lichtempfindlicher sind, aber nur Grautöne liefern und eine geringere Auflösung haben. Zudem ist die Dichte unterschiedlich. Es gibt einen zentralen Bereich mit hoher Dichte an Zapfen, nach Außen hin nimmt sie ab. Die Auflösung beträgt unter idealen Umständen zwischen 0,5 und 2 Bogenminuten. Sie ist stark von dem Umständen aber auch der Person abhängig. In der Astronomie nimmt man 1 Bogenminute an und auch dieser Wert gilt nur bei zwei hellen Punktquellen wie Doppelsternen. Bei niedrigeren Kontrasten also nicht gerade schwarzen Linien auf weisem Grund wie beim Sehtest nimmt sie deutlich ab. Als "Notmalsichtig" mit 100 % Sehschärfe nimmt man eine Auflösung 1 Bogenminute an, für das Erwerben des Führerscheins braucht man mindestens 1,4 Bogenminuten.

Das Gesichtsfeld wird nach Wikipedia mit 107 Grad in er Horizontalen und maximal 80 Grad in der Vertikalen angegeben. Eine Kamera die also die Auflösung des Auges erreichen wöllte, müsste rund 6420 x 4800 Bildpunkte haben. Das ist heute in der Sensortechnik machbar. Was noch nicht machbar ist ist diese Auflösung als Video wiederzugeben. Doch dass muss man auch nicht. Nur ein kleiner Bereich im Zentrum hat diese Auflösung, der Rest ist unscharf und wird von uns meistens bewusst gar nicht wahrgenommen, bewegt sich etwas so dreht das Auge die Pupille dorthin und man sieht den neu fokussieren Teil dann wieder scharf. Der Rechner müsste also nur etwa 20-30 Grad so scharf rendern, dann könnte er die Auflösung herunterfahren. Daher auch die zweite Kamera die die Pupille verfolgt. Heutige VAR-Brillen decken nur 90 x 60 Grad ab. Das reduziert dann die benötigten Pixel auf 5400 x 3600. Wenn man die Führerscheinauflösung anstrebt, dann reichen 3800 x 2500 Pixel. Bei Monitoren hat man mittlerweile schon 7680 x 4320 Pixel erreicht,

Die Brille bringt einen Vorteil für etliche Augenkranke die wich ich Nystagmus haben. Nystagmus ist ein angeborenes Augenzittern, die Augen sind nie ruhig. Ich merke das nur wenn ich versuche etwas genau zu fokussieren, dann zittert manchmal das Bild, häufiger ist ein "Pumpen" bei dem die Abbildung kurz Scharf wird und dann wieder unscharf. Wenn die Kamera den Pupillen folgt, kann sie deren Bewegung beim Bild folgen und den scharfen Ausschnitt verschieben und so das Phänomen austricksen. Ebenso wäre sie von Nutzen wenn jemand kurzsichtig und altersweitsichtig ist. Der braucht normalerweise eine Gleitbrille die sich die Tatsache zunutze macht das man beim Betrachten von Nahen Dingen meist nach unten schaut und beim Betrachten von fernen geradeaus. Doch ideal ist das nicht und eine Kamera die das Auge verfolgt aber auch die Schärfeebene der angepeilten Objektes feststellt kann eine Korrektur viel besser erledigen.

Bei Personen die nicht 100% Sehschärfe haben wird man wohl die Brille zuerst einsetzen, denn dann reicht auch eine geringe Auflösung. Ich habe durch Kombination von mehreren Augenfehlern mit Brille noch 25 bis 30%, ohne 5-10%. Da würde also eine deutlich geringere Auflösung ausreichen. Daher sehe ich die Chance daher auch zuerst als Medizinalprodukt. Durch die niedrigere Auflösung ei Personen mit nicht 100 % Sehschärfe sinken dann auch die Hardwareanforderungen deutlich ab.

Man könnte aber die Technik natürlich auch nutzen um die Sehschärfe zu verbessern. Man kann nicht das Auge selbst überlisten, aber man kann wie wenn jemand ein zusätzliches optisches System wie ein Mikroskop oder einen Feldstecher nutzt seine Fähigkeiten erweitern. Dazu muss das System nur unser Verhalten ausnutzen. Wenn wir etwas mit der Pupille fixieren, dann haben wir meist Probleme ein Detail zu erkennen oder sind zumindest an diesem Interessiert. Erkennt das System also keine Bewegung der Pupille, dann könnte die Kamera langsam heranzoomen. Das wäre dann das Gegenstück zum Mikroskop oder Fernrohr.

Wenn wir uns orientieren oder nach Gefahren schauen, z.B. bevor wir eine Straße überqueren, so bewegen sich die Pupillen nach links und rechts. In dem Fall könnte man nicht nur herauszoomen sondern sogar auf eine Fischaugenlinse umstellen die mehr zeigt, das würde es uns ersparen, den Kopf stark zu bewegen.

Denkt man das weiter so kann man die Pupillenbewegung sogar als Kommando oder zur Navigation benutzen, wenn man was sicher ein schöner Zusatznutzen Informationen in die Brille einblendet. Das können Informationen sein über das was man sieht (z.B. Straßenplan, Infos zu Gebäuden - man könnte sich ohne Navi in fremden Städten bewegen) aber auch die aktuellen Börsenkurse. Schaut man auf einen Navigationspfeil so scrollt man, schaut man auf ein Kreuz so schließt sich das Fenster. Das kann man noch mit Blinzeln als "Klickersatz" ausbauen. Bei genügender Fähigkeit sogar mit linkem und rechtem Auge = linker und rechter Maustaste.

Weitere Möglichkeiten des "Enhancens" wäre wenn man man Kameras hat, die empfindlicher sind als das Auge, man nachts oder in der Dämmerung mehr sieht, analog wird die Brille alleine schon durch ihre Bauweise verhindern dass man von der Sonne selbst im Sommer geblendet wird. Man könnte sogar an das Sehen in IR- oder UV-Wellenlängen denken, was zumindest für einige Berufe von Vorteil ist, weil man so Materialdefekte oder Wärmelecks erkennen kann.

Technisch gesehen geht vieles schon. Sensoren die mindestens so lichtempfindlich wie das Auge sind, (da wir ab etwa 16-20 Bildern pro Sekunde keine getrennten Bilder mehr sehen, reicht eine Belichtungszeit von etwa 1/20 s) gibt es schon, allerdings haben sie relativ große Sensorgrößen. Man kann aber die Eigenschaft es Auges ausnutzen und einen hochauflösenden, nur ein kleines Gesichtsfeld abdeckenden Sensor mit einem grobauslösenden mit größerem Gesichtsfeld kombinieren.

Bei den VR-Brillen liegt die Auflösung derzeit bei 1800 x 1200 Pixel pro Auge. das ist noch zu wenig, doch vor einigen Jahren lagen die noch bei VGA Auflösung, sodass ich optimistisch bin, das man dies noch hinbekommt. Das Hauptproblem ist heute für die Informationsverarbeitung, die ja nicht nur dem Streamen von Bildern sondern auch der Mustererkennung, dauerndem Scharfstellen und Verfolgen der Bewegung der Augenbewegung. Das brauchte heute noch einen potenten Rechner den man im Rucksack tragen müsste und der viel Strom braucht. Doch vieles kann man, wie dies auch unser Gehirn macht durch Vernetzung erledigen. Unser Gehirn braucht Jahre bis Kleinkinder "richtig" sehen können in der Zeit Vernetzens ich die Nervenzellen so das sie die Information verarbeiten. Analog kann man dies durch neuronale Netze trainieren und wenn man die Algorithmen so erst einmal ausgearbeitet hat als spezialisierte Hardware in FPGA oder andere kundenspezifische logische Schaltungen gießen. Da die Aufgabe für alle gleich ist kann man das dann sogar wie Prozessoren maskenprogrammiert in Serie produzieren. Eindeutig ein Vorteil der Hardware gegenüber unserem Gehirn. So stark reduzieren wie das Gehirn kann man aber nicht, weil man erst ja für die Sinneszellen ein vollständiges gut aufgelöstes Bild präsentieren muss, aber wie schon gesagt nur den einen Ziel in der angegebenen Auflösung.

Übrig für den Rechner bliebe dann noch das Einspiegeln von Zusatzinformationen wie es heute Google Glases tut. Und hier wird es dann sicher auch für Google interessant. Die Möglichkeiten für die Firma wären enorm. Schlussendlich hat man nun ja den Browser 24 Stunden im Betrieb. Normalsichtige könnten noch die Brille abnehmen, aber fehlsichtige wie ich könnten dies nicht. Als Herausforderung bleibt noch das es natürlich schick aussehen muss. Der beste Kompromiss wären wohl nach außen hin verspiegelte Gläser, sonst würden alle mit dunkeln Sonnenbrillen a la Blues Brothers rumlaufen. Eine Alternative wären durchsichtige Gläser in denen man nur bei Bedarf den Zusatznutzen aktiviert, z. B. wenn man an etwas heranzoomen will. Das geht durch Kunststoffgläser die man elektrisch polarisieren kann. Ohne Polarisation sind sie durchsichtig mit sind sie abgetönt und man sieht den aufprojezierten Inhalt.

Das ganze eröffnet dann aber auch neue Schlachtfelder in anderen Gebieten wie Sicherheit und Datenschutz. Was passiert wenn Google das aufnimmt was man sieht, z.B. beim eintippend er Geheimzahl im Bankautomaten oder beim Sex? Ein heikles Thema.

17.4.2017: Die Flugbahn von BepiColombo

Ich arbeite ja gerade am Artikel für BepiColombo und die Missionsbeschreibung ist auch schon fertig. Da verstand ich einiges nicht und habe mich an einen Experten gewandt und das liefert mir den heutigen Aufhänger zum Blog. Aber fangen wir zuerst mal mit der Mission von BepiColombo an.

Studien für eine ESA Mission gab es schon lange. Sie gehen bis 1993 zurück. Richtig konkret wurde die Mission auch schon unter dem heutigen Namen 2001 als man das Konzept genauer definierte und für eine Cornerstone-Mission der ESA vorschlug. Damals war die Mission noch dreiteilig: Ein Orbiter den den Planeten beobachtet, der MPO. Dazu ein Orbiter in einer exzentrischeren Umlaufbahn, der das Magnetfeld untersucht, der MMO und ein kleiner Lander der nur wenige Tage auf der Oberfläche arbeiten sollte. Der ESA war dies zu teuer und als die Genehmigung anstand brauchte auch die Ariane 5 Rettung Geld. So wurde das Projekt abgelehnt.

Das Projekt 2001

Man fand jedoch eine Lösung. Die JAXA wollte den kleineren Orbiter für die Magnetosphäre bauen und das Surfaceelement wurde gestrichen. Als Nebeneffekt brauchte man so auch keine zwei Starts (geplant mit Sojus) und der Start der Sojus vom CSG aus, würde die Nutzlast der Sojus erhöhen. So sollte Bepicolombo mit einem Start auskommen. So wurde die Mission 2007 genehmigt.

Schon im allerersten Konzept war als Option der Einsatz von Ionentriebwerken vorgesehen. Sie hätten nach damaliger Veröffentlichung im ESA Bulletin 103 die Reisezeit auf 2,6 bis 3,6 Jahre gedrückt. Ionentriebwerke gab es nun auch, und sie waren auch notwendig, denn der Plan sah nun so aus:

Das Projekt 2007

Eine Sojus 2B transportiert BepiColombo in eine GTO-Bahn. Diese wird mit einem 400 N Triebwerk über zwei Monate ausgeweitet, bis man die Umlaufbahn des Monds erreicht hat. Ein Vorbeiflug am Mond bringt die Sonde dann auf Fluchtkurs. Der Mond liefert aber zu wenig Geschwindigkeit um das nächste Ziel, die Venus zu erreichen. Nun treten die Ionenantriebe in Aktion die die Bahn so verändern das BepiColombo erneut die Erde passiert. Beim derzeitigen Startdatum Oktober 2018 wäre das im April 2020 der Fall. Sie beschleunigt die Sonde und passt die Inklination an. Danach passiert sie zweimal die Venus und einige Male den Merkur. Nach der zweiten Venuspassage sind die Ionentriebwerke wieder rund um das Perihel aktiv. Sie passen die Bahn so an, das die Sonde von Merkur einfangen wird. Kurz vorher wird das Zusatzmodul abgeworfen und der Planetare Orbiter bremst in eine Umlaufbahn ein, trennt den Magnetosphärenorbiter ab und senkt seine Bahn weiter ab. Danach kann die wissenschaftliche Phase beginnen.

Das ganze dauert 6,5 bis 7,2 Jahre, also länger als bei Messenger der keine Ionentriebwerke einsetzte. Es gibt auch nicht drei sondern mindestens vier Merkurvorbeiflüge, es können je nach Startzeitpunkt auch bis zu sechs sein. Kurzum: Ionentriebwerke scheinen hier die Mission nicht zu verkürzen.

2009 - Umzug auf die Ariane 5

2009 war BepiColombo so schwer, dass man die Mission auf eine Ariane 5 verschob. Dadurch konnte man im Transfermodul den Treibstoff für das Verlassen der Erde einsparen. Die ESA buchte einen Einzelstart bei dem Ariane 5 BepiColombo auf einen Fluchtkurs bringt. Die grundlegende Mission blieb aber gleich. Das bedeutet es gibt wieder zuerst einen Erdvorbeiflug und das war der Grund warum ich mich an einen Experten der ESA wandte (auf eigenen Wunsch nicht genannt). Die Ariane 5 ECA kann nach meinem Kenntnisstand mindestens 6 t auf einen Fluchtkurs bringen. Da die Nutzlast in den letzten Jahren gesteigert wurde (die Ziffer von 6 t geht von 10 t GTO aus, mittlerweile sind es aber 10,73 t in den GTO) wäre es meiner Berechnung nach sogar möglich einen der beiden Venus-Vorbeiflüge einzusparen da man so BepiColombo in eine solare Bahn von 83 x 150 Millionen km bringen könnte. Die Sonde ist mit nur 4,1 t Gewicht in jedem Fall direkt zur Venus zu bringen. Schon das würde die Mission um eineinhalb Jahre verkürzen.

Ursache für die Ehrenrunde

Die Antwort die ich bekam, bezog sich nicht wie ich dachte auf die fehlende Wiederzündbarkeit die die ESA für ihre Planetenmissionen so bemängelt. Sie ist der Grund warum man das Vinci Triebwerk will. Die Wiederzündbarkeit des Vinci ist schön, aber in vielen Fällen nicht notwendig. So hat die NASA mit der Atlas Centaur alle Mond und Planetensonden (Surveyor, Mariner 6-9, Pionier 10) bis zum Start von Mariner 10 immer direkt gestartet, also ohne Parkbahn. Bei den niedrigen Inklinationen der Planetenbahnen würde das auch vom CSG aus gehen. Auch Rosetta wurde mit einer Zündung gestartet, obwohl die EPS prinzipiell wiederzündbar ist (allerdings wurde sie erst für ATV Missionen auch dafür qualifiziert)

Das Problem ist ein anderes. Die Bahn muss, je nachdem wo die Venus steht, leicht nördlich oder südlich zum Äquator geneigt sein. Da die Nutzlast für Fluchtbahnen viel leichter als bei einer GTO-Nutzlast ist hat die EPC bei einer höheren Geschwindigkeit und einem längeren Weg Brennschluss. Sie wird also später abgetrennt. Die EPC darf aber nicht über bewohntem Land verglühen. Damit scheiden mittlere Bahnneigungen beim Start nach Norden ab etwa +25 bis +55 Grad aus, außer die Nutzlast ist schwer wie beim ATV. Dann würde die EPC über Westafrika niedergehen. Beim Start nach Süden scheiden Inklinationen von -10 bis -15 Grad immer aus, da dann die Aufstiegsbahn schon kurz nach dem Start über bewohntes Gebiet führt und je nach Geschwindigkeit auch die Inklinationen von -25 bis -40 Grad, da dann ebenfalls die EPC in Südamerika neidergehen würde. Das Diagramm zeigt einige von der ESA/Arianespace berechnete Nutzlasten für Exomars (2008, schwarz), JUICE (rot) und LAPLACE (blau) und die "verbotenen" Zonen.

Diese Tatsache ist leider bei jedem Startdatum gegeben und so macht man eben die Ehrenrunde um die Sonne, was die Mission schon um mindestens ein Jahr verlängert. Die Ariane 6 wird das Problem nicht in der scharfen Form haben (der -10 bis -15 Grad Streifen wird immer verboten bleiben). Bei ihr ist die Oberstufe mit Nutzlast schwerer (bei Fluchtbahnen mindestens 40 t gegenüber 24 t) und die Zentralstufe weniger leistungsfähig, das heißt ihre Brennschluss erfolgt früher. Sie wird in jedem falle im Atlantik niedergehen.

Doch hätte man es nicht besser machen können? Ich will hier keine neue Mission skizzieren, aber zwei Dinge fallen mir auf:

Festhalten am alten Konzept

BepiColombo wiegt 4,1 t. Damit wäre sie leicht genug um bei einem Start in den GTO noch einen zweiten Passagier mitzuführen. Warum also nicht die Mission so beibehalten wie damals mit der Sojus geplant: BepiColombo kommt bei einem Doppelstart in einen GTO, hebt diesen Zwischenorbit selbst an und macht einen Mondvorbeiflug. Bei etwa 750 m/s dV Geschwindigkeitsdifferenz zu einem Mondkurs addiert das 1.110 kg Treibstoff und etwa 150 kg für Tanks, zusammen also 1.260 kg. BepiColombo wäre mit leichten Reserven etwa 5,4 t schwer. Mit Sylda, zwei Satellitenadaptern ist man bei 6,3 t Startmasse und das lässt dann noch Platz für einen maximal 4,4 t schweren Satelliten in der unteren Position. So hätte man zwar die Mission nicht verkürzt, aber zumindest einen Teil der Startkosten eingespart. Wenn Die Kosten linear pro Kilogramm berechnet werden müsste das die Mission um 70 Millionen Euro verbilligen.

Volle Ausnützung der Trägerrakete Ariane 5

Was mich auch nervt, ist das BepiColombo länger braucht um zu Merkur zu gelangen obwohl sie Ionentriebwerke einsetzt und die im inneren Sonnensystem wo es genug Energie gibt, sie zu betreiben. Schuld daran ist die Wahl des Einfangens durch Merkur. Dafür muss man den Orbit an den von Merkur angleichen und genau das machen die Ionentriebwerke. zusätzlich haben sie keine große Stromversorgung für eine so schwere Sonde. Dawn hatte in etwa die gleiche Leistung, war aber viermal leichter. Daher muss man sie sehr lange betreiben und das verlängert dann die Mission entsprechend.

MESSENGER, der bisher erste Merkurorbiter, hat sich klassisch einfangen lassen. Der Preis: Messenger besteht beim Start aus fast 55% aus Treibstoff, während es bei BepiColombo 34 % sind und dabei erreicht die Sonde sogar noch einen niedrigeren Orbit der sie mehr Treibstoff kostet. Was aber wäre, wenn man die Fluchtbahnnutzlast von 6,3 t voll ausnutzt, die Ionentriebwerke weglässt und durch chemischen Treibstoff ersetzt? Die Ariane 5 könnte nach obigem Diagramm mindestens 6,3 t auf einen Fluchtkurs bringen. Das sind 2,2 t mehr. Es entfallen die 580 kg Xenon in ihren Hochdrucktanks, die dann auch etwa 120 kg wiegen. Das Solarpanel des MTM kann entfallen, der MPO kann die Stromversorgung mitübernehmen. Das elektrische System des MTM wiegt 290 kg. Wenn ich 200 kg als Einsparungen ansetze, ist man bei einer neuen Trockenmasse von 3.300 kg. Das bedeutet das man 3.000 kg in chemischen Treibstoff, ein 500-N-Triebwerk und Tanks investieren kann, netto etwa 2.500 kg Treibstoff und 500 kg Tanks / Druckgas, Antrieb. Das würde den Treibstoffanteil auf 60,8 % anheben, genug um auch den niedrigeren Orbit zu erreichen. Man könnte auch so die Mission verkürzen, den MESSENGER brauchte nur viereinhalb Jahre um Merkur zu erreichen und nicht wie BepiColombo beim Start im Oktober 2018 über sieben Jahre.

Mal sehen ob sie im Oktober 2018 auch tatsächlich abhebt. Bisher wurde die Mission mehrfach verschoben. Ursprüngliches Startdatum war der August 2013 ...

Weiter geht es Ende nächste Woche

Soviel für heute. Ab Morgen bin ich für acht Tage nach dem Rechten sehen in meinem Ferienhaus im Allgäu. Eventuell stelle ich auch von dort einen Blog ein, aber rechnet nicht damit. Das bedeutet dass es so bis ende nächster Woche wenig neues gibt. Aber ihr könnt die Aufsätze von Ostern noch genauer durchsehen und vielleicht publizieren Martin M, Thierry Gschwind und Nils etwas. Zumindest sehe ich dort acht Artikel in meinem Entwurfsordner, von Niels ist es sogar eine ganze Reihe.

29.4.2017: Ein Vorschlag für die Ariane 6

Das man beim DLR ein Triebwerk mit Methan erprobt war mir neu. Das Ganze scheint man auch auf kleiner Flamme zu halten, ganz im Gegensatz zu den sonstigen Aktivitäten des DLR, wo selbst Kleinigkeiten einige Seiten im eigenen Magazin wert sind. Es ist nicht mal der Name bekannt. Bei einem spezifischen Impuls von 3400 m/s und 110 kg Treibstoff/s komme ich auf 374 kN Schub. Es scheint sich um einen Technologiedemonstrator zu handeln, denn geplant ist ein zehnmal größeres Triebwerk, das dann das Vulcain ablösen könnte.

Doch ich habe das zum Anlass genommen, mal ein bisschen zu rechnen. Die Idee: Mit 400 kN geschätztem Vakuumschub (spezifischer Impuls dann etwa 3636 m/s) ist es mehr als doppelt so schubstark wie ein Vinci. Damit könnte man die Ariane 6 um eine weitere, dritte, Stufe erweitern.

Nutzen

Ohne konkrete Rechnung erst mal eine allgemeine Überlegung, warum man diese Stufe einbauen sollte. Zuerst einmal verstößt sie gegen eine fundamentale Regel: Stufen müssen von unten nach oben besser werden. Also in der Regel einen höheren spezifischen Impuls aufweisen. (Man könnte auch die Leermasse senken, doch da die Stufen kleiner werden und der Strukturfaktor bei großen Stufen oft besser als bei kleinen ist geschieht dies eher selten, die Ariane 1 war aber so ein Beispiel).

Aber: es ist eine weitere Stufe, und das alleine könnte schon die Nutzlast steigern, vor allem bei hohen Geschwindigkeiten.

Ein Problem, das Ariane 5 hat und wenn ich die relativ geringe Nutzlast für die Startmasse richtig deute, auch die Ariane 6, ist eine hohe Trockenmasse der Oberstufe. Ich schätze sie auf über 6 t, damit man bei den bekannten Eckwerten auf die geringe Nutzlast von 10,9 t kommt. Bei der Ariane 5 resultiert sie durch die Anbringung der Booster, die die Oberstufe durchschütteln. Bei der Ariane 6 müsste de Effekt eigentlich kleiner sein, da sie die Kräfte auf den LOX-Tank der ersten Stufe übertragen. Würde man eine weitere Stufe einbringen, so würde man in jedem Falle die Vibrationen dämpfen, das heißt, man könnte die Oberstufe leichter bauen. Zwar wird dann diese gut durchgeschüttelt. Doch ihr Volumen ist kleiner, weil Methan eine höhere Dichte als Wasserstoff hat. Im Mittel wird bei LOX/LH2 (6:1) eine Tonne Treibstoff ein Volumen von 2,8 m³ Volumen einnehmen, bei LOX/Methan (3,5 zu 1) dagegen 1,22 m³.

Vor allem soll dieses Triebwerk ja billiger sein. Für den größeren Nachfolger wird ein zehnmal niedrigerer Preis als das Vulcain 2 anvisiert. So müsste das zehnmal kleine Triebwerk noch bedeutend preiswerter sein und so die Stunde, auch wenn sie nur die Nutzlast moderat steigert, die kosten pro Kilogramm senken.

Design

Schwer abzuschätzen ist die Stufengröße. Ich bin von 5 m/s Startbeschleunigung ausgegangen und habe sie daher auf 40 t angesetzt (42 t Masse der Oberstufe/Nutzlast), mit einer Trockenmasse von 3 t. Spezifischer Impuls: 3600 m/s. Bei gleicher Oberstufe komme ich bei der Ariane 64 auf eine Nutzlaststeigerung von 10,9 auf 12,9 t. Das ist deutlich. Bei der Ariane 62 habe ich auf die Stufe verzichtet, weil nur zwei Booster eine sonst zu geringe Vertikalbeschleunigung aufbauen würden.

Der Effekt wäre noch größer, wenn man dann Gewicht bei der Oberstufe einsparen könnte, doch dann bräuchte man zwei Versionen für die Ariane 62 und 64.

Bei anderen Orbits sieht es so aus, dass der Effekt um so höher ist, je höher die Geschwindigkeit:

Orbit

Ariane 64 (berechnet)

Ariane 64 + Oberstufe

LEO

27.729 kg

31.118 kg

SSO 800 km (8332 m/s)

22.919 kg

24.934 kg

GTO

10.900 kg

12.958 kg

Galileo / Mars (11.750 m/s)

5.363 kg

6.869 kg

Merkur direkt (13.000 m/s)

2.222 kg

3.386 kg

Jupiter direkt (14.200 m/s)

57 kg

958 kg

Ohne dritte Stufe

Geht man davon aus, dass man nun eine weitere Oberstufe hat, dann kann man zumindest für niedrige Geschwindigkeiten LEO und SSO die bisherige Oberstufe weglassen, die ja auch ein großer Kostenfaktor ist. Nur mit der LOX/Methanstufe kommt man auf folgende Nutzlasten:


Orbit

Ariane 64 (berechnet)

Ariane 62 (berechnet)

Ariane 64 + LOX/Methan - Oberstufe

Ariane 62 + LOX/Methan - Oberstufe

LEO

27.729 kg

16.991 kg

26.405 kg

16.012 kg

SSO 800 km (8332 m/s)

22.919 kg

13.829 kg

21.503 kg

13.109 kg

GTO

10.900 kg

5.800 kg

10.454 kg

5.971 kg

Galileo / Mars (11.750 m/s)

5.363 kg

2.012 kg

5.586 kg

2.775 kg

Merkur direkt (13.000 m/s)

2.222 kg

-

2.941 kg

1.018 kg

Jupiter direkt (14.200 m/s)

57 kg

-

1.194 kg

-

Besonders für hohe Geschwindigkeiten ist diese Stufe besser, hier schlägt die auf 3 t angesetzte Trockenmasse voll durch. Allerdings würde sie in der Realität höher sein, da die Oberstufe auch die VEB enthält. So müsste man rund 500 kg von den angegebenen Nutzlasten abziehen. In der Praxis erhält man so fast gleich große Nutzlasten bei geringeren Kosten.

Andere Überlegungen

Blogleser haben auch schon vorgeschlagen, mehr als 4 Booster anzumontieren. Die Zahl der Booster ist eine weitere Variationsmöglichkeit. Derzeit wird die Ariane 6 nur mit zwei oder vier Boostern entwickelt. Andere Zahlen erfordern nicht nur konstruktive Änderungen an der Rakete, sondern auch an der Startbasis. Die Booster müssen durch Öffnungen ihren Flammenstrahl nach unten in den Flammenschacht ablenken und sie müssen fixiert werden. Dagegen dürften die Änderungen an der Rakete klein sein, man muss nur die Zwischentanksektion und das Schuberüst leicht anpassen. „Einfach“, im Sinne von wenigen Änderungen, gibt es daher nur zwei mögliche Konfigurationen:

Das erste (3 Booster) ist leicht zu umzusetzen, man bekommt eine Zwischenversion mit einer Nutzlast zwischen der Ariane 62 und 64. Ich errechne rund 8.400 bis 8.500 kg GTO Nutzlast, Meiner Ansicht nach eine gute Alternative, vor allem wenn man zwei leichte Nutzlasten oder eine schwere hat, die man nicht mit einer leichten kombinieren kann. Mit 3,7-3,8 t Nutzlast für den Galileoorbit wäre sei auch in der richtigen Region um vier Galielo Satelliten auf einmal zu transportieren. Damit wäre sie ideal für den Aufbau des Galileo Netzes. Die Ariane 64 ist da zu groß und die Ariane 62 transportiert nur zwei Satelliten pro Start.

Der dritte Booster erzeugt in Nullstellung einen Schub, der nicht durch den Schwerpunkt geht. Doch das kann man durch schrägstellen der Düsen leicht ausgleichen. Das Space Shuttle hatte einen solchen Schubvektor und die Atlas 501 hat auch einen solchen. Es wird also technisch beherrscht.

Bei mehr als vier Boostern ist die Startbeschleunigung von Bedeutung. Die Ariane 62 startet mit 8.000 kN Schub. Das sind 15 m/s Beschleunigung. Bei der Ariane 64 sind es dann 15.000 kN und 17,4 m/s. Bei fünf Boostern davon einer im Flug gezündet wären es 14,8 m/s. Vergleichbar mit der Ariane 62 und bei sechs Boostern wären es 12,8 m/s. Relativ wenig für eine Feststoffrakete. Einen zusätzlichen Booster halte ich für möglich. Er würde zwar anfangs die Aufstiegsverluste erhöhen, später aber absenken, sodass man bei gleichen Aufstiegsverlusten wie die Ariane 64 die Nutzlast deutlich steigert: Das müsste, die Nutzlast von 10,9 auf 12,5 t erhöhen. Das bedeutet: Mit 2 bis 5 Boostern hat man eine breite Nutzlastkapazität von 5.8, 8.3, 10.9 und 12.5 t – besser als bei Ariane 4 und ein deutlicher Marktvorteil.

Umdesign

Die Einfügung einer neuen Stufe bei einer Entwicklung befindlichen Rakete sollte zum Anlass genommen werden, das Design zu überdenken. Hier füge ich z.B. eine 40 t schwere stufe zu einer 36 t schweren zu. Idealerweise würde man den Stufenteiler gleich ziehen, das wären dann 170 t – 50 t – 19 t. Die Oberstufe würde also deutlich kleiner werden. Netterweise wiegt die ESC-A 19 t. Man würde also die neue Oberstufe einsparen und durch die ESC-A ersetzen. Das würde vor allem Geld einsparen: Bei der Ariane 5 ME sollte die ESC-B 1,2 Milliarden Euro kosten, so teuer wird die neue Stufe mit gleichem Triebwerk auch werden. Damit wäre vielleicht die Ariane 6 trotz weiterer stufe sogar noch billiger. Ich komme bei dieser Kombination auf die gleiche GTO Nutzlast (11,1 t). Bei höheren Geschwindigkeiten nimmt sie zu (5980 kg in Galileo, 3090 kg zu Merkur, 1162 kg zu Jupiter. Bei Leo ist sie vergleichbar (27.531 kg in Leo). Für die ESA würde ein Nachteil der Ariane 5 trotzdem wegfallen: Durch die schwereren Stufen erreicht die EPC niemals eine Bahn, bei der sie auf Festland einschlagen könnte, außer beim Start über Südamerika, und wenn man ESC-A und Oberstufe in einem Parkorbit absetzt (möglich bei weniger als 6,4 t Nutzlast), kann man auch die fehlende Wiederzündbarkeit der ESC-A ausgleichen, denn es ist für Planetenmissionen nur eine Zündung in der Parkbahn nötig.

Leider geht es aber bei der Ariane 6 gar nicht um technische Neuerungen. Es geht wie leider in den letzten Jahren zu beobachten um das abgreifen von Mitteln für eine neue Rakete. Denn der Hauptunterschied zur Ariane 5 der die Kosten senken soll ist eine Umstrukturierung der Produktion gefolgt von größeren Stückzahlen. Beides könnte man auch bei der Ariane 5 haben. Die Produktion kann man auch ohne neuen Träger umstrukturieren und größere Stückzahlen würde man bekommen, wenn die europäischen Länder konsequent die Ariane 5 nutzen würden, anstatt Sojus Starts zu buchen oder wie im Falle Deutschlands sogar Falcon 9 Starts. Die Flexibilität der Ariane 6 könnte man auch bei der Ariane 5 bekommen, wenn man anstatt der beiden großen Booster zwei bis sechs P80 Booster der Vega einsetzt.

30.4.2017: Buchkritik: J. Kelly: Moon Lander

Während meines Nesselwang Aufenthaltes habe ich mir erneut das Buch von Kelly über die Entwicklung des Mondlanders durchgelesen. Nun habe ich festgestellt, dass ich keine Kritik über das Buch verfasst habe. Zeit das mal nachzuholen.

J. Kelly ist wohl, wenn man dem Buch selbst glaubt, der Vater der Mondfähre. Letzten Titel bekam er nach Wikipedia von der NASA, sodass diese Werbung auf dem Buchcover wohl wahr, ist. Im Laufe der Entwicklung rückt er vom Projektingenieur, der ein kleines Team leitet das auf die Ausschreibung der NASA für den Mondlander antwortet zum Programmmanager auf. Dabei rückt er auch in dem Entwicklungsprozess weiter vom Design über Entwicklung zur Fertigung und Qualitätskontrolle zur Überwachung des Betriebs in den hinteren Räumen der Missionskontrolle. So wäre er der beste Mann gewesen (Kelly starb 2002 im Alter von 72) um die Entwicklung des Mondlanders umfassend zu beschrieben.

Die Kritiken auf der US-Seite von Amazon sind überwiegend positiv, die wenigen Kritiken auf der deutschen Seite eher im Mittelmaß. Ich glaube das liegt aber nun weniger am Inhalt des Buches oder das es schwer zu lesen wäre, sondern an dem Anspruch des Publikums. Im Allgemeinen sind Amerikaner unkritischer und das Anspruchsniveau ist kleiner. So habe ich auch ein Buch über die Technik des Space Shuttles, das die Technik nur mit allgemein verständlicher Sprache beschreibt, ohne ins Detail zu gehen mit nur wenigen Daten und das wurde in einem Review von Space Review als „zu technisch für viele Interessierte“ charakterisiert. In Deutschland dürfte jemand, der ein Buch in Englisch kauft, ein tieferes Interesse am Mondlander haben, schließlich gibt es die Sprachbarriere als zusätzliches Kaufhindernis. Der erwartet dann mehr Fakten und Daten, als er in dem Buch findet.

Das Buch ist NICHT eine Beschreibung der Technik des LM, noch seiner Entwicklungsgeschichte im technischen Sinn (warum hat man dieses oder jenes geändert, wie hat man welche Probleme gelöst). Es werden zwar Dinge angesprochen wie problematisch waren, aber dies geht nur in einem kleinen Detailgrad, so die Entscheidung die Ausstiegluke quadratisch zu machen und eine Plattform vor ihr anzubringen. Sie fiel, nachdem Astronauten bei Versuchen über die bisherige runde Luke mit dem Anzug und Lebenserhaltungssystem hineinzuklettern große Probleme hatten.

Das Buch ist ehrlich: Grumman hatte bei der NASA keinen guten Ruf. Während der ersten Jahre war das Hauptproblem der „schedule slip“. Grumman hatte einen Faktor von 0,8. Sprich alle fünf Wochen verschob sich der Auslieferungstermin eines LM oder ein anderer Meilenstein um vier Wochen. Erst relativ spät hat Grumman darauf reagiert, indem man mehr Personal an das Projekt setzte und schließlich im Dreischichtbetrieb, 24 Stunden am Tag an den LM arbeiteten.

Später sorgte Grumann für einen schlechten Ruf, indem man Versäumnisse bei der Entwicklung und Fertigung machte. So gab es keinerlei Tests der Verbrennungsinstabilitäten des Aufstiegstriebwerks. Es stammte von dem Agena-Triebwerk ab und das hatte, als Grumman den Kontrakt bekam, schon Dutzende Male im All reibungslos gearbeitet. So sparte sich Grumman die Untersuchung ganz. Das erste an die NASA übergebene LM-1 „leckt wie ein Sieb, ist Müll“ so nach Rocco Petrone KSC Manager – beim Test ob Leitungen dicht waren schlugen die Alarmsirenen von Helium-“Schnüffelgeräten“ so laut an, dass man den Test abbrechen musste. Helium setzte man Druckluft zu, um die Dichtheit von Leitungen und Verbindungen zu testen. Bei der späteren Kontrolle mit Tensidlösungen zeigte sich dann auch Schaum, das war also nicht nur ein kosmetisches Problem.

Erst im letzten Viertel des Buchs kann Kelly so richtig stolz auf das LM sein. Die Flugobjekte funktionierten tadellos. Allerdings „profitierte“ Grumman vom Apollo 1 Unglück. Die Behebung der Mängel dauerten 18 Monate bei North American welche das CSM herstellten, die Änderungen beim LM waren deutlich kleiner und in 4 Monaten abgeschlossen, sodass Grumman 14 Monate des verzögerten Zeitplans aufholen konnte. Trotzdem schafften sie es nicht, das erste LM für bemannte Tests rechtzeitig fertigzustellen, sodass die NASA Apollo 8 einschob, um das CSM auf einer Mondmission zu testen. Normalerweise wäre der Test des LM in der Erdumlaufbahn mit Apollo 9 der Apollo 7 Mission gefolgt.

Kelly muss eigentlich viel von Technik verstehen. Er war die ganze Zeit für die technische Seite verantwortlich, und zumindest am Anfang, als er noch nicht weit oben in der Hierarchie war, hat er auch das Design mit ausgearbeitet. Davon merkt man im Buch nichts. Wenn es um Technik geht, so wird ein Problem allgemein beschrieben und auch die Lösung allgemein beschrieben. Beim Lecken z.B. indem man Verbindungen, die vorher durch O-Ringe abgedichtet wurde, verlötet hat. Von der Technik des LM erfährt man nur wenig, eigentlich nur dass, was man wissen muss um die Probleme und deren Behebung zu verstehen. Es gibt keine Beschreibung der Funktionsweise des LM, seinen Aufbau oder auch eine Beschreibung der Subsysteme. Systeme die keine Probleme machten (z.B. der Bordcomputer) werden gar nicht erst angesprochen. Wie bekommt man dann 266 Seiten (ohne Anhang, davon ¾ bis zum ersten Einsatz, bei Apollo 5) voll? Kelly beschreibt Sitzungen, Personen, die involviert sind und Entscheidungen und Managementtechniken wie die Einführung von PERT. Doch auch das nicht im Detail. Jemand der das Buch kauft, um das Projektmanagement zu verstehen oder daraus zu lernen, wird auch nicht viel daraus ziehen können. Es ist vielmehr eine Zusammenfassung von rund 10 Jahren Entwicklung und der Probleme, und dann ist klar, dass es nicht in die Tiefe gehen kann, da bleiben pro Jahr gerade mal 25 Seiten.

Fazit

Für wen ist nun das Buch geeignet und für wenn ist es nicht geeignet. Das Buch ist geeignet für alle, die vor allem an Geschichte interessiert sind und die einen Einblick in die Entwicklung des LM und den dabei auftretenden Problemen gewinnen wollen. Es ist völlig ungeeignet für alle, die sich über die Technik des LM informieren wollen. Je nach Erwartungshaltung kann man so drei oder vier bis fünf Sterne vergeben. Wer die Beschreibung zum Buch liest, der muss mehr Sterne vergeben, denn aus dieser wird klar, dass es sich nicht um ein Technikbuch handelt, sondern eines über Projektgeschichte und Entwicklungsgeschichte. Wer ein Buch über die Technik des LM haben will, der muss sich woanders umsehen.

Selbst diesen Anspruch löst das Buch aber nicht ein. Es fehlt zum Beispiel eine tabellarische Zusammenfassung. Sowohl von den Ereignissen aus Projektsicht (Meilensteine, Übergabe von LM, Missionen) wie auch des LM (Masse, Abmessungen, andere technische Daten) oder der Finanzen (der erste Kontrakt hatte einen Umfang von 389 Millionen Dollar, am Ende kostete das LM aber 2214 Millionen). Fünf Sterne würde ich nicht geben, selbst wenn man das Werk nur als Buch über die (Projekt)geschichte nimmt.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99