Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 488: 14.1.2017 - 21.1.2017

14.1.2017: Warum soll ich kein kurzbrennweitiges Instrument kaufen?

In meiner losen Reihe für Astronomieeinsteiger widme ich mich heute einem sehr populären Fallstrick. Es ist der, dass man als Einsteiger ein kurzbrennweitiges Instrument kauft.

Ein Schlüsselparameter eines Teleskops ist die Brennweite. Da sie mit dem Durchmesser in Beziehung steht, gibt man oft das Verhältnis von Brennweite/Durchmesser (F//D) an. Diese Größe ist auch in der Fotografie bekannt und dort als Blende bekannt. Dann steht auf einem Objektiv meistens 1:1.8 sprich die Brennweite beträgt die 1,8-fache Öffnung. Da die Brennweite mit der Öffnung ansteigt, wäre es eigentlich korrekter von einem Instrument mit kleiner Blende zu sprechen.

Auch bei Einsteigerteleskopen bekommt man jedes in mehreren Brennweiten selbst vom selben Hersteller, hier mal von Bresser, als einem einem bekannten Hersteller:

Der Erste Newton hat eine Brennweite von 1200 mm, der Zweite von 750 mm. Das gibt es auch bei Refraktoren. Da sind die Unterschiede sogar noch extremer:

Der Erste hat eine Brennweite von 500 mm, der Zweite eine von 1000 mm. Beide haben 102 mm Durchmesser.

Auf den ersten Blick bieten die kurzbrennweitiges Instrumente nur Vorteile, auch wenn man die ersten beiden Teile meines Blogs über Fernrohre mitberücksichtigt:

Die Punkte hängen zusammen. Die Teleskope sind oft billiger, weil eine kürzere Brennweite einen kürzeren Tubus bedeutet und damit wiegt er weniger. Noch wichtiger: der Hebelarm ist kleiner was wichtig ist wenn man am Okularauszug was Schweres, wie teure Okulare oder eine Kamera anbringt. Ein leichterer Tubus erlaubt aber eine billigere Montierung, die nicht so viel tragen muss und das macht das Teleskop billiger.

Zu den Okularen. Bei einem F/D <=6 kann man den gesamten sinnvollen Vergrößerungsbereich mit 1,25 Zoll Okularen abdecken. Diese sind deutlich preiswerter als 2-Zoll-Okulare. Die verursachen dann oft Folgekosten. So ist meist kein 2-Zoll-Zenitspiegel mitenthalten. Also muss er zusätzlich beschafft werden. 2-Zoll-Okulare sind auch schwerer und belasten so die Montierung, sodass es sinnvoll sein kann, auch hier aufzurüsten.

Warum also kein kurzbrennweitiges Instrument kaufen?

Nun die meisten Anfänger wollen nur mal beobachten. Später kommt vielleicht der Wunsch auf zu fotografieren, doch anfangs steht das beobachten im Vordergrund. Kurzbrennweitige Instrumente sind aber für die Fotografie optimiert. Der Laie mag denken: Also wenn es für die Fotografie gut genug ist, dann ist es für die Beobachtung erst recht. Schließlich sieht man auf einem Foto meistens mehr als mit dem Auge zu erkennen ist. Ein fataler Irrtum.

Bei einem Linsenfernrohr werden die Strahlen des Lichts durch Linsen gebrochen und dies geschieht für jede Wellenlänge anders. Als Folge haben die Brennpunkte für verschiedene Wellenlänge nicht denselben Brennpunkt. Wenn man ein Objekt fotografiert so zeigt sich das bei großen Kontrasten, z.B. Stromleitung vor Himmel in einem Farbsaum an der Kante. Früher wurden Linsenfernrohre daher sehr langbrennweitig konstruiert. Das Bild zeigt den Hamburger Refraktor mit einer Linse von 60 cm Durchmesser und 900 cm Brennweite, also F/D=15. Vor der Erfindung des Achromaten war es noch extremer. Heute wäre ein Instrument mit einem F/D von 15 unverkäuflich. Je stärker die Strahlen gebrochen werden, desto stärker ist der Effekt, also ergibt ein langbrennweitiges Instrument ein besseres Bild. Tendenziell werden daher kleine Instrumente daher langbrennweitiger. So ist beim Einsteigertyp mit 70 mm Durchmesser die übliche Brennweite 900 mm. Beim doppelt so großen 150 mm Typ dagegen 1200 mm. Also einmal ein F/D von 13 und einmal eines von 8. Das ist primär dem Komfort geschuldet. Man bekommt maximal einen Tubus von 1,2 bis 1,5 m Länge auf einer Montierung unter. Schon bei 1 m Länge hat man, wie ich aus eigener Erfahrung weiß, bei einem Refraktor ein Problem, wenn man die Rektaszensionsachsen und Deklinationsachsen feststellen will. Die Wellen für die Bewegung erreicht man mit dem Arm noch, die kleinen Schrauben zum Feststellen nicht mehr. Dazu muss man stark in die Hocke gehen, wenn man zenitnah beobachtet. Bei Newtons ist es durch den oberen Einblick entspannter, doch auch die haben eine Maximallänge, denn schließlich müssen sie ja noch voll in jede Richtung beweglich sein.

Kurzum, bei einem Refraktor mit kleinem F/D, das geht herunter bis 5, wird es einen Farbfehler geben. Der wirkt sich bei der Himmelsbeobachtung nicht mal so stark aus, denn es gibt hier wenige stark kontrastreiche Objekte, eigentlich nur den Mond, Planeten und einige helle Sterne. Ich habe selbst einen Refraktor mit 80/400. Wenn ich tagsüber ihn auf die Stromleitungen ausrichte, so sieht das Bild mit Okularbrennweiten von 32 bis 20 mm gut aus, bei 15 mm tauchen erste Farbsäume bei dünnen Objekten auf, die werden stärker und auch bei größeren Objekten sichtbar, wenn man weiter mit der Brennweite runtergeht. Mit einem 5-mm-Okular, mit dem man eigentlich die optimale Vergrößerung hat, ist das Bild deutlich unscharf. Das Maximale, das geht ist ein 7,5-mm-Okular. So erreicht man hier maximal eine Vergrößerung von 60. Theoretisch wäre die optimale bei diesem Optikdurchmesser bis 80 und man kann bis etwa 100-fach hoch gehen, wenn es Planeten sind. Man kann das Instrument also visuell nicht voll ausnutzen.

Der Grund: Die Okulare brechen nun nochmals das Licht, und zwar, um so stärker je stärker sie vergrößern. Bei kleinen Vergrößerungen ist der Effekt klein, weshalb Spektive für die Naturbeobachtung mit ebenfalls kleiner Vergrößerung normalerweise gute Bilder zeigen. Wer ein billiges Zoom-Fernglas hat, kennt vielleicht den Effekt, wenn man stärker vergrößert.

Warum nun ist das beim Fotografieren nicht so wichtig? Nun man schließt die DSLR direkt an. Da ist kein Okular mehr zwischen Optik und Chip. Damit fällt diese Fehlerquelle weg. Zudem ist die Vergrößerung relativ gering. Bei einer Kamera mit APS-C Chip liegt sie bei meinem Refraktor bei 15-fach. Bei einem Vollformatchip wäre es sogar nur 9,2. Zudem gleicht alleine das verschmieren durch das Seeing bei Langzeitbelichtungen die Farbsäume aus.

Wie sieht es nun bei Newtons aus?

Newtons haben nicht das Problem des Farbfehlers, aber das gesamte Bildfeld ist ein Kugelschnitt. Das bedeutet, von der Mitte ausgehend wird die Abbildung verzerrt. Sterne werden zu kleinen verwaschenen Flecken. Da dies aussieht, wie die Koma eines Kometen, spricht man auch von der „Koma“. Auch dieser Effekt ist um so stärker je stärker die Krümmung des Spiegels ist, sprich je kürzer seine Brennweite. Der Effekt ist auch auf Fotografien deutlich zu sehen. Daher gibt es für Newtons Koma-Reduktoren zu kaufen, um dies zu reduzieren. Das sind Linsen, die in den Strahlengang eingebracht werden und die Bildfeldwölbung reduzieren. Ein zweites Manko ist der Fangspiegel. Er muss ein bestimmtes Feld in den Okularauszug werfen. Je kleiner die Brennweite des Hauptspiegels ist, desto größer muss der Fangspiegel sein. Da jeder Fangspiegel ein Artefakt in der Optik ist, da er Teile des Bildes verdeckt und auch Licht schluckt, setzt er den Kontrast herab. Der Fangspiegel sollte daher möglichst klein sein. Gute Werte sind 25% des Hauptspiegeldurchmessers, erstrebenswert sind 20%.

Trotzdem werden aus rein praktischen Gründen die Newtons mit steigender Größe immer kurzbrennweitiger. Die Größten im Handel erhältlichen, wo man noch viel Auswahl hat, haben 254 bis 300 mm Durchmesser bei einem Verhältnis von 1:8 wie bei kleinen Newtons üblich, wären die Tuben dann 2-2,4 m lang und dann nicht mehr auf einem Stativ unterzubringen. Dafür braucht man dann eine feste Säule und eine Trittleiter.

Ein zweiter Grund bei beiden Typen ist aber das der benötigte Ausschnitt immer gleich groß ist. Okulare haben maximal 51,2 mm Durchmesser. T-2 Adapter für Kameras 44 mm. Für 1,25 Zoll Okulare reichen sogar 33 mm und für APS-C Chips 27 mm. Das heißt, im Verhältnis zur Öffnung ist das benötigte Bildfeld immer kleiner und daher kann man mit der Brennweite runter gehen denn die Fehler werden um so größer bei gegebenem F/D je weiter man von der optischen Achse weggeht. Ein zweiter Grund ist, dass diese größeren Instrumente dann auch meist fotografisch genutzt werden als zweites Teleskop (Man sieht in Deutschland wegen des Seeings eigentlich nicht mehr Details, als ein 120-mm-Instrument zeigt. Die Lichtsammelleistung steigt zwar an, doch der Effekt ist wirklich klein und natürlich wird auch die Himmelsaufhellung genauso verstärkt. Der Kontrast bleibt also beim Beobachten immer gleich groß).

Und Schmidt-Cassegrains / Maksutovs?

Bei diesen Instrumenten gibt es nur kurzbrennweitige Geräte im Handel. Ein Cassegrain hat normalerweise ein F/D von 20 bis 30, das Hubble Weltraumteleskop z.B. eines von 24. Weil so was unverkäuflich ist, verkürzt man die Brennweite und baut eine Korrekturplatte nach Schmidt oder Maksutov ein. Der Preis für die kurze Brennweite sind auch hier extrem große Fangspiegel, die teilweise 40% der Öffnung erreichen. Trotzdem erreichen solche Instrumente nur F/D von 10-13. Die früher zusätzlichen eingeführten Geräte mit F/D von 6,3 von Meade hat der Hersteller wieder vom Markt genommen.

Mein Rat

Ein kleiner Newton (<200 mm Optikdurchmesser) sollte ein F/D von 6 oder größer haben. Wer unsicher ist, sollte mal sehen, wie groß der Fangspiegel ist. Sein Durchmesser sollte maximal 25% des Optikdurchmessers betragen.

Bei Refraktoren sollte das F/D mindestens 8 betragen.

Die meisten Hersteller sind aber ehrlich. Wenn man sich bei Händlern wie Teleskopshop oder Astroshop informiert, wird man vielleicht nicht explizit den Hinweis finden, dass es nicht für die visuelle Beobachtung gedacht ist, aber man wird eine Betonung der Fotografie finden wie die Bezeichnung „Foto-Newton“. Oder es wird in der Beschreibung viel auf Fotografie Bezug genommen. So auch bei dem Gerät das ich habe.

14.1.2017: Streichen anstatt Dämmen

Seit Jahren wird, staatlich verordnet nun die ganze Bundesrepublik gedämmt. Nach den gesetzlichen Vorschriften muss man ja, wenn man eine neue Heizung einbaut dafür sorgen das man die Vorschriften der EnV einhalten. Nach der Energieeinsparungsverordnung kommt man dann ohne weitere Maßnahmen zum Energiesparen in der Regel nicht aus. Eine dieser und so weit ich es sehe, die Populärste, ist es zu dämmen. Das ist in den letzten Jahren in die Kritik gekommen. Nicht nur wegen der Brandgefahr von mit Polystyrol gedämmten Fassaden. Sie sind auch ein guter Nährboden für Schimmel, da sich in ihnen die Feuchtigkeit auskondensiert und sie halten auch nicht lange. Nach zwanzig bis 25 Jahren sind sie Sondermüll. Für mich unverständlich ist, warum der Gesetzgeber das Material überhaupt zulässt. Gibt es in Form von Glaswolle doch schon lange, eine teurere, aber bessere Alternative (öffentliche Gebäude dürfen übrigens nicht mit Polystyrol gedämmt werden).

In der Kritik ist nun auch, ob man überhaupt damit viel Energie einspart. Die meisten Energieverluste gibt es über das Dach. Bei der Wand ist es vergleichsweise wenig und dann auch noch abhängig von der Fensterfläche. Die Berechnungen der Industrie nehmen natürlich Best-Case Szenarien an die selten vorliegen. Sehr oft rechnet es sich zumindest für den eigenen Geldbeutel nicht.

Nun kommt aber Gegenwind von anderer Seite. Das Frauenhofer Insitut für Schicht und Oberflächentechnik (IST) sollte im Auftrag des Bundesumweltamtes prüfen, inwieweit das Anstreichen von Wänden den Weltenergieverbrauch senkt. Eine Empfehlung der US-Energiebehörde ergab hier ein großes Einsparpotenzial, weil man Klimaanlagen einsparen oder reduzieren kann. Diese lag zum Beschluss für die Vereinten Nationen als Empfehlung vor und das Bundesumweltamt hatte Zweifel, ob dies auch bei anderen Ländern so ist, zum einen wegen der anderen klimatischen Gegebenheiten, aber auch der Bausubstanz. Die ist in den USA im Durchschnitt bedeutend schlechter als bei uns.

Bei der Untersuchung stellten sich die Forscher aber auch die Frage, welchen Einfluss die Farbe oder der Reflexionsgrad generell hat. Der grundlegende Zusammenhang ist relativ einfach und seit Langem bekannt: Je dunkler ein Gegenstand ist, desto mehr Energie nimmt er aus der Sonneneinstrahlung auf und heizt sich auf. Im Sommer wird daher schwarzer Asphalt heißer als heller Sand und im Winter verschwindet der Schnee von dunklen Oberflächen schneller als von hellen. Da die Energieabgabe proportional zur vierten Potenz der Temperatur ist, wird ein dunkler Körper daher immer wärmer werden als ein heller, auch wenn er nachts und bei bedecktem Himmel mehr Wärme abstrahlt als ein weißer. Denn die Strahlung der Sonne entspricht einer Temperatur von 5770 K, dagegen erreichen Häuser selten eine Temperatur von mehr als 300 K.

Schaut man sich an wie in Europa gebaut wird, so fällt auch auf, das je weiter man nach Süden kommt um so heller die Oberfläche ist. Von rostbraun bis dunkelblau angestrichenen Häusern in Schweden bis hin zu weiß getünchten ind Süditalien und Griechenland.

Das IST hat sich der Problematik gewidmet und den Einfluss von Farbe, bzw. dem Reflexionsgrad auf Oberflächen zuerst im Labor, dann von 2013 bis 2015 über drei Jahre bei verschiedenen Häusern einer Reihenhaussiedlung untersucht.

Während man im Sommer den Einfluss sofort benennen kann – ein dunkel angestrichenes Haus heizt sich stärker auf als ein weiß oder helles angestrichenes – ist es im Winter deutlich komplizierter. Zum einen ist die Sonneneinstrahlung deutlich geringer, das begrenzt die Aufnahme von Energie. Zudem sind die Tage im Winter tendenziell stärker bewölkt. Die Abgabe einer dunklen Oberfläche ist aber nach dem Gesetz des schwarzen Strahlers auch deutlich höher, sodass die Forscher selbst zuerst von nur einem geringen Einfluss der Farbe bzw. des Reflexionsgrades der Oberfläche ausgingen. Zudem werden die Häuser beheizt und hier geben dann dunkle Oberflächen auch mehr Energie ab als helle Oberflächen.

Es zeigte sich sowohl im Laborversuch, wie auch bei der Messung von realen Häusern, das die Zusammenhänge komplex sind. Eine Erkenntnis gab es recht rasch: gedämmte Oberflächen sollten weiß angestrichen werden. Die Schicht nimmt zwar Wärme auf, durch die Dämmung wird sie aber nur langsam nach innen geleitet. Bevor ein nennenswerter Teil des Mauerwerks erwärmt ist, ist der kurze Wintertag vorbei und nun kühlt eine dunkle Oberfläche stärker aus als eine Helle, da sie mehr Wärme abstrahlt. Die Temperaturen sinken so an der Oberfläche um 2-4 Grad stärker über Nacht ab als bei einer hellen Oberfläche.

Deutlich schwerer zu benennen sind die Verhältnisse bei ungedämmten Oberflächen. Während es im Laborversuch noch relativ eindeutige Ergebnisse gab, war die Situation im Realversuch deutlich komplexer. Einige Zusammenhänge gab es aber. Zum einen ist der Effekt von Bewölkung deutlich geringer als angenommen. Ein Sonnentag reicht aus, das eine Fassade so viel Wärme aufnimmt, wie sie in zwei Tagen bei bewölktem Himmel wieder abstrahlt. Bei drei oder mehr Sonnentagen sind es sogar drei Tage. Wenn aber wie geschehen im Winter 2012/2013 es wochenlang bewölkt ist, gibt eine dunkel gestrichene Fassade mehr Energie ab als eine helle.

Noch komplexer wird es, wenn man die Bausubstanz miteinbezieht. Für die Aufheizung des Mauerwerks und damit Reduktion des Energieverbrauchs am besten geeignet ist Stahlbeton. Er leitet die Energie am schnellsten von der Oberfläche ab. Er kühlt allerdings auch am schnellsten wieder aus. Am geringsten ist der Einfluss bei Gasbeton oder anderen Materialen die viel Luft enthalten. Eine Überraschung gab es bei den klassischen Ziegelmauern. Sie erweisen sich als fast genauso gut wie Stahlbeton, was die Aufnahme der Energie betrifft, aber sie gaben die Energie erheblich langsamer wieder ab. Dies wird darauf zurückgeführt, das die Ziegelsteine sehr gut die Wärme speichern und die Fugen aus Mörtel sie schnell ins Innere leiten und gleichmäßig verteilen.

In der Summe, das ergaben die Versuche im Freiland, könnte man mit einem völlig schwarz angestrichenen Haus (dafür mischte man käuflicher schwarzer Farbe sogar noch 10% Graphit zu, da die käufliche Farbe kein vollkommenes Schwarz ergab) zwischen 10 und 20% Energie im Winter einsparen. Der niedrigste Wert wurde 2012/2013 erreicht, einem Winter mit vielen trüben Tagen. Als optimales Mauerwerk entpuppte sich eine Ziegelsteinmauer. Ihr Effekt kann noch verbessert werden, wenn die Innenräume dann von einem Gipsputz anstatt Tapeten überzogen werden. Der weiße Gips reflektiert die Wärmestrahlung besonders gut, die raue Oberfläche gibt die gespeicherte Wärme besser an den Raum ab.

Allerdings, das gaben auch die Forscher zu, ist das System bei uns nicht praxistauglich. Außer dem ästhetischen Aspekt heizen sich die dunklen Häuser im Sommer extrem auf, 5-7 Grad mehr als weiß angestrichene Häuser.

Drei der Beteiligten lies das aber keine Ruhe und sie machen sich selbstständig und gründeten eine eigene Firma. Das erste Produkt steht schon vor der Marktreife. Es hat jedoch mit der Fassadenfarbe nichts zu tun sondern ist eine Dünnfilmfolie für Fenster. Sie wird auf der Innenseite aufgezogen und reflektiert Infrarotstrahlen. Bei Gebäuden mit großen Glasfassaden wie Bürokomplexen spart diese bis zu 35% der Energie, indem sie Wärmestrahlung nicht passieren lässt. Sie verdunkelt das Licht um etwa 10% und verändert das Spektrum nicht. Allerdings müsste sie nach derzeitigem Stand im Sommer entfernt werden oder man öffnet die Fenster oder verhindert die Lichtaufnahme durch Rollos. Beides geht vor allem bei größeren Büros nicht. Derzeit wird daran gearbeitet, die Folie im Preis zu verbilligen und die Aufbringung zu vereinfachen, sodass dies jeder kann, ohne einen Handwerker zu benötigen. In einem zweiten Schritt soll eine zweite Schicht folgen, die thermochrom ist. Sie soll, wenn im Sommer die Fenster sich aufheizen, den Großteil des Lichtes wieder reflektieren. Das dunkelt dann stärker ab, doch im Sommer gibt es so viel Licht das dies kein Nachteil ist. Solche thermochrome Materialen gibt es schon. Nur die Temperaturselektivität ist noch nicht so weit wie gewünscht. Heutige Materialen würden schon bei 15°C anfangen die Fenster zu verdunkeln, also einer Temperatur, bei der dies noch nicht nötig ist. Andere Materialen wirken dagegen erst bei mehr als 29 Grad, also einer Temperatur, die schon wieder zu hoch ist.

Interessanter ist jedoch eine zweite Entwicklung, an der zur Zeit gearbeitet wird. Da ein dunkles Haus nur im Winter Energie spart, arbeitet die Firma nun an einer Möglichkeit schnell ein Haus „umzulackieren“. Man setzt dabei auf Hochdruckreiniger die mit einer neuen Pistole, die Farbe dünn und flächendeckend aufbringt. Schließlich soll die Prozedur jedes Jahr erfolgen und da darf es nicht Tage dauern. Es dauerte schon lange, bis man eine dünnflüssige Farblösung hatte. Die Lösung bestand schließlich in einer Pigment-Stärkelösung. Diese muss aber noch vor und während des Auftragens gerührt werden. Stärke ist eine thixotrope Flüssigkeit wird sie langsam bewegt, so ist sie dünnflüssig. Wird sie schnell beschleunigt, oder in diesem Falle neim treffen auf die Wand abgebremst, so wird sie fest. Man erhält so eine dünnflüssige Lösung, die trotzdem beim Auftragen auf die Wand zähflüssig wird. Allerdings deckt sie nicht besonders gut. Es sind zwei Durchgänge nötig um das Schwarz in Weiß umzuwandeln. Nach dem ersten Durchgang erhält man nur ein Dunkelgrau, das zudem meist fleckig ist. Bei einigen sehr glatten Fassadentypen kann auch ein dritter Durchgang nötig sein. Dies kann aber auch ein Vorteil sein, weil man so im Frühjahr stufenweise die Farbe anpassen kann, zudem sind so auch Zwischenfarben möglich.

Die Stärke ist auch verantwortlich, dass man im Herbst die Lösung wieder entfernen kann. Dazu wird ein Gemisch aus Pilzenzymen und Tensiden versprüht. Nach einem Tag haben die Enzyme die Stärke abgebaut und man kann mit normalen Wasser die Farbe absprühen.

Sollte man das vergessen, so wird die weiße Farbe nach und nach durch die Umwelt abgebaut. Bei unserer Witterung dürfte nach zwei bis drei Jahren die schwarze Farbe wieder zum Vorschein kommen. Leider kann dies in Form von fleckigen Aufhellungen auch nach einem durchgeregneten Sommer schon der Fall sein.

Mit Hochdruck wird derzeit aber an farbigen Mischungen gearbeitet. Die Firma meint (und da hat sie wohl recht) das selbst Energiesparen die Leute nicht dazu bringen kann ihr Haus Schwarz oder sonst wie dunkel wie dunkelblau oder Dunkelgrün zu streichen. Die Möglichkeit aber sein Haus innerhalb eines Tages neu zu streichen, ohne eine Firma bemühen zu müssen, wäre eine Sache die viele vielleicht gerne haben würden. So könnte man alle paar Monate den Anstrich wechseln oder für bestimmte Gelegenheiten wie Geburtstage oder Feste. Leider ergeben sich mit Farbpigmenten noch größere Probleme als mit Weiß. Sprich man hat nach einem Anstrich, auch wenn dies über Weiß als Basisfarbe geschieht, ein fleckiges Ergebnis. Es sind bei Farbe mindestens drei Durchgänge nötig, sofern man eine gleichmäßige Färbung erreichen will. Akzeptiert man die unterschiedliche Farbdichte, so sind bemerkenswerte Farbeffekte möglich. So gibt es, wenn man in drei Durchgängen die drei Grundfarben aufträgt, ein Braun mit Flecken in Blau, Grün, Rot, Lila, Türkis, Orange.

Ohne Gerüst sind derzeit aber nur Einfamilienhäuser vom Hausbesitzer selbst „einfärbbar“. Für größere Gebäude wäre ein mobiler Kran mit einem Hochleistungs-Hochdruckreiniger eine Möglichkeit. Dieser müsste zwar gemietet werden, doch wenn die Auftragezeit kurz ist, soll sich dies trotzdem lohnen. Dafür muss aber die Mischung soweit perfektioniert werden, dass sie mit einer Auftragung auskommt. Die Behandlung muss nur auf den Wänden erfolgen, die auch von der Sonne beschienen werden, also es würde bei vielen Häusern reichen die Südwand zu streichen.

Ob dies den Dämmwahnsinn bremsen wird? Wohl nicht. Die Einsparungen sind zwar vergleichbar mit dem Dämmen, aber nur wenn man eine Fassage aus Ziegelsteinen hat. Die ist teurer als billiger Beton. Bei Stahlbeton liegen die Einsparungen etwas darunter und bei schon dämmenden Mauerwerk wie aus Gasbeton ist das Einfärben der Fassade wirkungslos. Es ist aber für Neubauten eine Alternative, da man mit Ziegelmauern und Dunklem/Schwarzen Anstrich dasselbe Ergebnis wie mit Dämmung erreicht ohne dessen Nachteile.

14.1.2017: Wie groß soll‘s den sein?

Oftmals im Leben geht es darum den größten, oder das größte zu haben. So erfreuen sich die SUV ja derzeit großer Beliebtheit und in Amerika waren schon immer die Autos größer. Auch lebt es sich in einer Villa besser als in einer Zwei-Zimmer-Wohnung. So verwundert das nicht, das dies auch nicht vor Teleskopen haltmacht. Meine kleine Serie möchte ich abschließen über ein paar Gedanken wie groß ein Teleskop den sein muss.

Hier hat sich viel gewandelt. Als ich mir mein erstes Teleskop 1989 gekauft habe, gab es Öffnungen bis 8 Zoll in großer Auswahl. Dann wurde die Auswahl deutlich kleiner und bei 14 Zoll war Schluss.

Heute gibt es auf „richtigen“ Montierungen Geräte bis 16 Zoll Durchmesser. Mit Dobson Montierung sogar bis 24 Zoll. Wenn man in den USA einkaufen will, steigt das sogar auf bis zu 50 Zoll. Ein solches Teleskop kostet dann in Dobson Bauweise aber schon 120.000 Euro. Wenn man eines fertigen lässt, also nicht von der Stange kauft, dann ist nach oben keine Grenze gesetzt.

Leist man in einem Shop nach so sieht es toll aus: Ein 305-mm-Newton sammelt 40% mehr Licht als ein 254 mm. (Die Durchmesser sind meistens außer bei kleinen Instrumenten in US-Einheiten, das sind 12 bzw. 10 Zoll). Klingt nach viel. Doch in etwa genauso viel muss man auch mehr bezahlen.

Für Großteleskope gibt es die „Daumenregel“: Doppelte Öffnung = Sechsfacher Preis. Da das Lichtsammelvermögen nur um den Faktor 4 steigt und die Auflösung um den Faktor 2 ist dies nicht sehr wirtschaftlich. Einen ähnlichen Zusammenhang gibt es auch bei Amateurteleskopen. Ich habe mal von einem Hersteller innerhalb der Serie mit Newtons mal die Preise gecheckt:

 

Durchmesser

76 mm

114 mm

130 mm

152 mm

203 mm

254 mm

305 mm

Preis

130 €

190 €

461 €

571 €

736 €

2.202 €

4.200 €

Den 300 mm musste ich schon aus Tubus und Montierung zusammenstellen, wobei hier die Montierung mit 3100 Euro deutlich auf den Preis durchschlägt, weshalb so ein Instrument dann auch nicht mehr als Komplettgerät angeboten wird. In der folgenden Tabelle habe ich mal die Kosten relativ zum kleinsten Instrument berechnet, und zwar einmal unter Berücksichtigung des Durchmessers (steigt der um das doppelte so dürfte bei gleichem Preis/Leistungsverhältnis auch der Preis auf das doppelte steigen) und im Zweiten auf die Lichtsammelleistung, die quadratisch mit dem Durchmesser ansteigt:

 

Durchmesser

76 mm

114 mm

130 mm

152 mm

203 mm

254 mm

300 mm

Relativ zu 76 mm Auflösung

1,0

1,5

1,71

1,97

2,67

3,34

4,00

Relativ zu 76 mm Lichtsammelleistung

1,0

2,25

2,92

3,89

7,10

11,16

16

Preis relativ zu 76 mm

1

1,46 €

3,54

4,39

5,66

16,93

32,30

So wäre das 114-mm-Instrument das preislich optimalste Teleskop. Das 130 mm hält immerhin noch bei der Lichtsammelleistung mit. Ganz deutlich wird, dass zum Ende hin der Preis deutlich ansteigt. Dafür gibt es eine Reihe von Gründen. Ein Teleskop besteht bei Auslieferungszustand aus folgenden Komponenten:

Die Teile kann man auch separat kaufen. Ab 300 mm Größe kommt man nicht darum das auch zu tun. Vergleicht man die Preise, so fällt auf das vor allem die Montierung auch ohne Schnickschnack rasch im Preis ansteigt. Der Tubus dagegen weitaus weniger. Beim 300-mm-Gerät kostet der Tubus mit 900 Euro nur ein Drittel der Montierung. Das ist der Hauptgrund für den Anstieg. Die Kosten für Okulare und Sucher sind dagegen konstant, selbst teure Teleskope haben oft nur einen kleinen 6 x 30 mm Sucher und es gibt nur ein oder zwei Standardokulare.

Das Kleinste ist deswegen nicht das billigste, weil selbst ein so kleines Teleskop ein stabiles Stativ und eine einfache Montierung braucht. Dasselbe Stativ trägt aber auch ein etwas größeres Instrument. Dazu kommen eben die Fixkosten für Sucher und Okulare, die selbst bei einfacher Qualität bei rund 30 Euro liegen. Da man mit einem oder zwei Okularen nicht auskommt, sollte man zum Instrument noch zwei weitere Okulare, einen Nebelfilter und einen Sonnenfilter hinzurechnen. Bis auf den Sonnenfilter sind die unabhängig Preise von der Auflösung und so kommt man leicht auf weitere Kosten von etwa 150 bis 200 Euro, die sowohl bei einem 130 Euro Gerät wie bei einem 4000-Euro-Gerät anfallen. Nur ist im einen Fall das Instrument teurer und im zweiten Fall nicht. Das gilt, auch wenn man Astrofotografie betreibt. Die Nachrüstmotoren steigen zwar im Pteis an, aber nicht sso stark wie der Teleskoppreis. Konstant bleibt der Preis für automatische Korrektur. Dafür braucht man ein weiteres (kleineres) Teleskop, eine Elektronik und eine astronomische CCD Kamera.

Man kann das aber auch anders sehen. Praktisch gesehen gibt es ja zwei Kriterien, die ausschlaggebend sind:

Die Auflösung wird limitiert durch das Seeing. In Deutschland ist es selten und nur an guten Standorten besser als 1 Bogensekunde. Die Auflösung erreicht schon ein 125-mm-Refraktor oder ein 150-mm-Reflektor. Der Fangspiegel senkt etwas die Auflösung herab. Und das ist dort, wo die meisten von uns wohnen, nämlich nicht auf Almen in den Alpen schon ein Wert, den es selten oder in Großstädten nie gibt.

Das Lichtsammelvermögen steigt quadratisch und wird daher gerne beworben. Aber genau genommen bezieht sich der Wert nur auf Sterne. Das sind punktförmige Quellen, die durch noch so große Vergrößerungen nicht vergrößert werden, aber das Teleskop sammelt immer mehr Photonen eines Sterns ein, je größer es ist. Die meisten wollen aber verschwommene Objekte beobachten wie Gasnebel oder Galaxien. Bei denen ist es aber so das bei gleichem F/D die Helligkeit pro Pixel oder Stäbchen im Auge gleich bleibt. Ein größeres Instrument hat einen größeren Spiegel, aber auch eine größere Brennweite, sodass die Abbildung beim selben Okular linear mitvergrößert wird. Auf einer Kamera ist dann ein Objekt eben 1000 anstatt 500 Pixel groß oder im Aue erscheint es größer, man erkennt bei derselben Belichtungszeit aber nicht mehr Details.

Galaxien und Nebel kann man nur besser aufnehmen, wenn man mit der Brennweite runter geht, deswegen sind fotografische Instrumente oft kurzbrennweitig. Nebenbei spart das Gewicht ein. Eine zweite Möglichkeit ist die Pixelgröße bei der Kamera zu vergrößern. Ich habe eine alte EOS 300D mit nur 6 MPixel auf einem APS-C Chip. Das aktuelle Modell Eos 1300D hat 18 MPixel. Da hat ein Pixel (bei gleicher Technologie) dann ein Drittel der Chipfläche und ein Drittel der Empfindlichkeit. Der Übergang zum Vollformat (36 x 24 mm) vergrößert dagegen nur die abgebildete Fläche.

Daher bringt zumindest für die Astrofotografie ein größeres Instrument nur ein größeres Bild, aber nicht mehr Details. Beim Auge ist es so, dass die größere Abbildung dann in der Tat mehr Details zeigt. Das liegt aber einfach daran, dass unser Auge anders arbeitet als eine Kamera. Da allerdings unser Auge immer viel weniger sieht als eine Kamera macht ein großes Instrument nur zum Beobachten eigentlich keinen Sinn.

Was folgt daraus?

Ich gebe Einsteigern den Rat mit einem preiswerten Teleskop anzufangen. Zum Beispiel dem 114-mm-Newton. Das ist die klassische Einstiegsgröße, das Format hatte auch mein erstes Teleskop. Zum einen ist das Hobby nicht für jeden etwas. Zum andern sieht man erst dann welche Beobachtungsbedingungen vor Ort herrschen und vielleicht was Größeres gar nicht sinnvoll machen und zum Dritten weicht das, was man sieht und das, was man im Web sieht, sehr deutlich ab, noch mehr als bei den Modells mit „gephotoshopten“ Gesichtern. Der Orionnebel ist z.B. nur um das zentrale Trapez herum zu erkennen und farblos, weil die Lichtintensität nicht ausreicht, die Zäpfchen anzuregen.

Dann kann man später aufsteigen. Das Zubehör das ja bei einem kleinen Instrument mehr kostet als dieses Selbst braucht man sowieso und dann hat man beim zweiten Teleskop auch Ahnung, worauf es einem persönlich ankommt. Das erste Teleskop kann man dann immer noch zur Sonnenbeobachtung nutzen bzw. wenn das Zweite ein Gerät für die Astrofotografie ist. Zum Beobachten.

Weiß jemand 100%, dass er nur ein Teleskop kaufen will, dann aber gleich ein Größere dann ist es mein Rat eines mit einer Montierung zu kaufen die genügend Reserven hat, um später noch eine Kamera zu tragen und entsprechend mit steuerbaren Motoren ausrüstbar ist. Das hebt den Preis des Teleskops aber dann auch deutlich an. Die Motoren kann man später nachrüsten. Wenn man besonders viel Geld übrig hat, kann man auch einen Autoguider installieren.

Was mich bei den großen Teleskopen, wo die Montierung teurer ist als das Teleskop selbst, wundert, ist das diese noch alle parallaktisch oder azimutal sind. Das heißt, eine Achse ist parallel zum Himmelsnordpol ausgerichtet, das entspricht einem Winkel wie dem Breitengrad des Ortes. In Deutschland also etwa 48 bis 53 Grad. So erzeugt ein Teleskop, je nach Stellung sehr unterschiedliche Lasten, und man benötigt Gegengewichte, welche die Last weiter erhöhen. Mit computergestützten Steuerungen, die eigentlich in der Klasse üblich sind, könnte man aber genauso gut automatisch in Höhe und Breite korrigieren, der Vorteil der parallaktischen Montierung ist ja primär das man normalerweise nur in einer Achse, nachkorrigieren muss. Besonders bei den Goto-Steuerung, die sowieso auf Objekte justiert werden, ist das unverständlich.

Zuletzt noch ein Vergleich, den man gerne vergisst:

Schon das erste Teleskop erreicht einen Sprung denn man nie wieder erreicht. Das menschliche Auge öffnet sich, wenn man nicht gerade Kind ist auf maximal 7 mm. Das ist die maximale Pupillenöffnung. Verglichen mit dem ist das kleinste Teleskop, das heute erhältlich ist und das etwa 70 mm Öffnung hat um den Faktor 10 bei Auflösung und 100 bei Lichtsammelleistung überlegen. Geht man nun auf 300 mm hoch, wofür man etwa das 40-fache investieren muss, so gewinnt man nur den Faktor 4,2 in der Auflösung und 18,3 in der Lichtsammelleistung. Der Spring ist also viel kleiner und vor allem wird jeder Sprung immer teurer: Die erste Verdopplung von 70 auf 140 mm kostet etwa den Faktor 4, der nächste Sprung dann schon den Faktor 10.

17.1.2017: Die Lösung für ein überflüssiges Problem: Lohnt sich der Umweg über Jupiter zu Saturn?

Heute will ich mich wieder mal einer Fragestellung widmen, die nicht jeden interessiert. Es geht um Raumsonden zu Saturn die in einen Orbit einbremsen sollen. Es gibt dazu mehrere Möglichkeiten. Die offensichtlichste ist der direkte Weg zu Saturn. Er dauert bei der klassischen Hohmannbahn 6 Jahre 19 Tage und man erreicht den Planeten mit einer Geschwindigkeitsdifferenz von 5444 m/s.

Saturn ist ein großer Planet und daher muss man wenn man eine elliptische Anfangsbahn haben will tatsächlich wenig abbremsen, auch wenn man mit einem großen ΔV ankommt. Für eine 160.000 x 3,6 Millionen km Bahn (etwas außerhalb der Saturnringe, bis zu Iapetus als letztem großen Mond) muss man nur um 1139 m/s abbremsen und erhält eine Umlaufdauer von etwas über 30 Tagen.

Schon das zeigt, das man eigentlich nicht viel optimieren kann. 1139 m/s ist ein geringe Geschwindigkeitsänderung. Danach wäre die Sonde um 31% leichter. Aber es kann ja auch Bahnen geben, die durchaus höhere Geschwindigkeitsänderungen erfolgen. Als Beispiel für eine so anspruchsvolle Bahn habe ich mir ein Einschwenken in Titans Umlaufbahn ausgesucht. Dafür braucht man schon 4002 m/s. Enceladus liegt so weit innen, das man schon 6005 m/s braucht. Realistischerweise würde man sicher zuerst die Aphele der Bahnen durch Titanvorbeiflüge absenken. Sowohl bei einem Einschwenken in Titans Orbit wie auch in Enceladus Orbit gibt es aber einen Punkt, wo man dies nicht mehr tun kann. Bei Enceladus ist das einfach zu umreisen: Sobald der Apo-Punkt auf Titans Umlaufbahn ist, kann ihn nicht mehr nutzen. Dann bleiben mindestens 3708 m/s um eine Bahn von 238.100 x 1.221.900 km in eine 238.100 km Kreisbahn umzuwandeln.

Bei Titan ist es problematischer. Idealerweise wird man von einer Bahn mit einer Resonanz der Umlaufperiode von mit Titan zu einer nächsten wechseln. Das Problem: Die Zeiten, in denen man Titan passiert werden, so immer größer. Nimmt man als letzte Bahn eine 2/3 Resonanz (Titanpassage alle zwei Umläufe = 32 Tage) an, so erhält man eine 643.000 x 1221.900 km Bahn. Aus dieser Bahn muss man nur 943 m/s für eine 1.221.900 km Kreisbahn abbremsen, wobei man beim Einfangen in Titans Orbit auch noch etwas gewinnt. Für eine 900 km hohe Kreisbahn sind es so nur 854 m/s. Zusammen kommt man somit obigen 1139 m/s auf rund 2000 m/s. Das ist also durchaus machbar.

Die abzubremsende Geschwindigkeit in eine erste Bahn ist dabei der kleinste Teil. Trotzdem will ich heute mal als Fragestellung untersuchen, inwieweit ein Jupitervorbeiflug diese minimieren kann. Die Idee dazu kam mir bei den Berechnungen zu Lucys Bahn. Da ergab sich das es sehr schwer war, das Aphel nur auf 845 Millionen km Höhe zu erhöhen und das Perihel deutlich zu erhöhen. Mit einem Aphel in Saturns Entfernung war es dagegen kein Problem, ein hohes Perihel zu erhalten

Nun gibt es ein gemeinsames Startfenster zu Jupiter und Saturn selten, nur alle 20 Jahre. Das liegt an den relativ nahen Umlaufdauern aber auch dem Tatbestand, dass die Periode niemals kleiner als ein Umlauf des inneren Planeten sein kann, also in diesem Falle Jupiters mit knapp 12 Jahren Umlaufszeit. Die Startfenster gibt es so alle 20 Jahre. Dieses Jahr ist das nächste. Das Letzte nutzte Cassini und das vorletzte Startfenster Voyager 1+2.

Die Taktik ist relativ einfach. Man passiert Jupiter, der lenkt einen zu Saturn um, wobei das Aphel der neuen Bahn in der Höhe von Saturn liegen sollte und das Perihel möglichst hoch. Nach einigem Probieren ergibt sich, das dies am besten geht, wenn die Startgeschwindigkeit möglichst gering ist. Hier eine kleine Tabelle:

Startgeschwindigkeit Solar

Annäherung bis auf

Perihel

38.500 m/s

2,012 Mill. km

569,7 Mill. km

38.600 m/s

3,372 Mill. km

524,4 Mill. km

38.700 m/s

3,989 Mill. km

482,7 Mill. km

Da die Geschwindigkeitsdifferenz um so kleiner ist, je höher das Perihel ist, wird man mit minimaler Annäherungsgeschwindigkeit starten. Bei 38500 m/s zieht Jupiter schon kräftig an der Sonde. Jupiters Position wurde in 779 Mill. Km Abstand angenommen, ohne ihn würde die Sonde nur 772,7 Mill. Km Entfernung erreichen. Die beiden Grafiken hier zeigen die Bahn im Ganzen und die Umlenkung an Jupiter. Man sieht deutlich, wie Jupiter die Sonde zuerst stark anzieht und dann nach rechts umlenkt. Der Lohn ist eine Reduktion der Annäherungsgeschwindigkeit auf 2359 m/s. Das reduziert die abzubremsende Geschwindigkeit in en ersten Orbit (160.000 x 3,6 Mill. km) von 1139 auf 597 m/s. Das sind zuerst einmal nur 542 m/s Gewinn. Allerdings spart man auch beim Start. Die hyperbolische Exzessgeschwindigkeit aus einem 200 km hohen Orbit beträgt für den direkten Transfer zu Saturn 15077 m/s und zu Jupiter nur 14084 m/s. Das sind dann zusammen schon 1536 m/s. Das ist dann schon eine deutlichere Hausnummer, die sich in etwa 38% mehr Nutzlast niederschlägt.

Es hat aber auch seinen Preis. Ein direkter Transfer zu Saturn dauert etwas über 5 Jahre. Der Umweg über Jupiter zuerst 2 Jahre 187 Tage bis zu Jupiter und dann nochmals fast 6 Jahre bis zu Saturn. Diesen erreicht man nach 9 Jahren 41 Tagen, also 3 Jahren Verzögerung. Bei heutigen Missionen die sich ja über ein Jahrzehnt hinziehen, eine tolerierbare Verzögerung zumal man ja auch Jupiter passiert und in einer Distanz, die zumindest bis auf Kallistos Umlaufbahn heranreicht. Das gibt schöne Fotos von Jupiter und eventuell Kallisto.

Nun die schlechte Nachricht: Das Startfenster für dieses Jahr wird man wohl nicht halten können. Da müsste man zur Jahresmitte starten und eine Raumsonde ist nicht geplant. 2037 werde ich mich mit dem Problem wohl neu beschäftigen müssen.

21.1.2017: Die Lösung für ein überflüssiges Problem: Bringt der Mars etwas für eine Jupitersonde?

Abb 1Auch heute wieder ein Blog, in dem ich ein himmelsmechanisches Problem untersuche. Es geht um die Raumsonde Galileo im Speziellen und eine Möglichkeit im Speziellen.

Ursprünglich sollte Galileo schon 1982 starten. In diesem Startjahr wäre es möglich gewesen, die Raumsonde an Mars vorbeifliegen zu lassen. Dies sollte einen Kilometer pro Sekunde bei der Startgeschwindigkeit einsparen. Ich fand das übertrieben und habe mich des Problems mal angenommen.

Zuerst mal zu den Umständen:

Mars liegt zwischen Erde und Jupiter. Das prädestiniert ihn eigentlich als Sprungbrett, wo man nochmals Schwung holen kann. Die Sonde verliert ja wenn sie sich von der Sonne entfernt Geschwindigkeit. Eine Jupitersonde startet z.B. mit etwa 38,6 km/s relativ zur Sonne. Bei Jupiter angekommen ist die Geschwindigkeit auf 7,4 km/s gesunken. In Marsentfernung (zwischen 206 und 249 Mill. km) sind es dann 31,6 – 29,9 km/s. Jeder Planet kann aufgrund seiner Masse nur ein bestimmtes „Maximal-ΔV“ auf die Raumsonde übertragen. Einer (nicht durch Rechnungen bestätigt, sondern empirisch gefundene) Regel liegt das Maximal-ΔV in etwa bei der Differenz zwischen lokaler Fluchtgeschwindigkeit und Kreisbahngeschwindigkeit. Beim Mars sind dass in 200 km Höhe rund 1,4 km/s. Der Kilometer pro Sekunde Geschwindigkeitsgewinn ist also wahrscheinlich.

Doch dieser solare Geschwindigkeitsgewinn muss nicht unbedingt mit dem Gewinn bei der Startgeschwindigkeit korrelieren. Würde er z.B. schon beim Start eintreten, so würde er die Startgeschwindigkeit nur um 600 m/s reduzieren, weil durch den hyperbolischen Exzess man durch die Geschwindigkeitsänderung im Erdgravitationsfeld etwas gewinnt. Je weiter man vom Perihel entfernt ist, desto weniger ändert ein gegebenes ΔV die Bahn. Daher habe ich es mal untersucht.

Der Plan von Galileo

Über das Fly-By an Mars habe ich wenig gefunden. Nach dieser Quelle soll er in 200 km Abstand von der Oberfläche erfolgen. Nach dieser Quelle 275 km und die Grafik bestätigt auch die 1 km/s Geschwindigkeitsgewinn ebenso die Passage nach 100 Tagen. Diese führt Bruno Stanek im Planetenlexikon zusammen mit dem Start im Januar 1982 an. Demnach müsste die Sonde den Mars im April 1982 passieren, je nachdem wann sie im Januar startete.

Eine weitere interessante Information ist das dann eine Standard-IUS reichen würde, allerdings benötigten die Fähren Triebwerke mit 109% Schub. Diese kamen nie (die Triebwerke wurden für dieses Level getestet, doch nach dem Verlust der Challenger wurde kein Triebwerk mehr mit diesem Performancelevel im Flug eingesetzt. Nach Ruppe würde Fähre 2 (Challenger) 29,7 t Nutzlast mit 109% Triebwerken erreichen. 29,48 t werden benötigt, um eine 2019 kg schwere Galileosonde mit einer IUS zu starten.

Im ersten Schritt habe ich mal berechnet, welche Geschwindigkeit eine Standard-IUS mit 2.019 kg Nutzlast und 156 kg für den Adapter erreicht. Ich komme auf eine Geschwindigkeit von 4471 m/s. Addiert man dies zu den 7802 m/s die ein Shuttle in einer niedrigen Umlaufbahn hat, so kommt man auf eine Endgeschwindigkeit von 12.273 m/s. Das sind fast 2 km/s weniger als man braucht, um direkt zum Jupiter zu gelangen. Zwar würde das Space Shuttle die IUS mit etwas größerer Geschwindigkeit starten. Doch die Möglichkeiten waren begrenzt. Die Reserven von etwa 15 t nicht genutzter Nutzlast würden bei einem Gewicht von mehr als 100 t für Shuttle und IUS nur eine leicht elliptische Bahn ergeben. Beim Design des Shuttles sollte er 18 in eine SSO-Bahn mit einer Neigung von 90 Grad transportieren können. Die 18 t entspricht fast der Masse der IUS-Galileo Kombination von 17 t. Für die 61,5 Grad mehr als zur energetisch günstigen Bahn, braucht man nur 220 m/s mehr. In etwa dies hätte man noch zusätzlich an Schwung mitgeben können. Das bedeutet eine Startgeschwindigkeit von 12.493 m/s. Dies entspricht einer solaren Startgeschwindigkeit von 35.648 m/s. Dies ist eine Bahn von 149,6 x 377 Millionen km.

Galileo KursDie Simulation

Mit dieser Bahn habe ich die Simulationen begonnen und dabei drei Fälle unterschieden:

Die letzte Angabe ist die wahre Sonnenentfernung, die der Mars im Mittel im April 1982 hatte.

Marsentfernung

Vorbeiflugdistanz

Endbahn

206 Mill. Km

227 km

166,1 x 492,2 Mill. km

243 Mill. Km

216 km

175,3 x 472,2 Mill. km

249 Mill. Km

225 km

177 x 477 Mill. km

Problem Startgeschwindigkeit

Kurzum: Es reicht nicht. Damit Jupiter die Sonde einfängt, muss die Bahn zwar nicht Jupiters Umlaufbahn erreichen, aber doch fast. Auf der Abbildung schneidet sie sogar. Nimmt man 800 Millionen km als Aphel an (Jupiter ist im Mittel 778,34 Mill. Km von der Sonne entfernt) so müsste die Raumsonde nach dem Marsvorbeiflug noch die Bahn anpassen. Selbst im optimistischsten Fall wären dazu rund 1820 m/s nötig, eine Geschwindigkeitskorrektur, die die Sonde nicht gehabt hätte. Das deutsche Antriebsmodul konnte die Geschwindigkeit um maximal 1600 m/s ändern.

Die offensichtlichste Lösung wäre, das man die IUS „ausgeweidet“. Die Oberstufe ist ausgelegt für lange Freiflugperioden. Dafür hat sie ein eigenes System mit Hydrazin für Lagekorrekturen an Bord, dazu brauchen die Computer weitere Batterien. Dies ist auch dran schuld, dass die zweite Stufe eine Trockenmasse von 870 kg bei nur 3919 kg maximaler Startmasse hat. Lässt man das Hydrazin weg, so steigt die Nutzlast schon um 110 kg. Weitere Einsparungen sind möglich. Damit könnte man die Startgeschwindigkeit steigern.

In einem zweiten Ansatz habe ich nun untersucht, welche minimale Startgeschwindigkeit man haben muss, damit man eine Bahn mit einem Perihel von 800 Mill. Km Entfernung bei einer Marspassage in 243 Mill. Km Entfernung erreicht.

Ich kam auf eine minimale Startgeschwindigkeit (solar) von 37.750 m/s. Bei einem Vorbeiflug in Höhe von 201 km kommt man dann auf eine Bahn von 165,5 x 797 Mill. km. Jupiter wird dann nach 2 Jahren 140 Tagen erreicht. Die Grafik von Galileo zeigt einen noch schnelleren Kurs mit etwa 540 Tagen Reisedauer also 2 Jahren 120 Tagen die Jupiterbahn kreuzt. Auch das spricht für einen schnelleren Abflug. Auch Mars wird erst nach 105 Tagen passiert. Eine weitere Simulation zeigt, dass die kurze Reisezeit erst bei einer Startgeschwindigkeit von 38.200 m/s erreicht wird, dann aber spart man kaum an Startgeschwindigkeit ein. Ich komme auf 13.873 m/s. Das sind rund 300 m/s weniger als ohne einen Marsvorbeiflug. In jedem Falle liegt diese Startgeschwindigkeit weit über dem, was eine IUS leisten kann, selbst wenn die Fähren ihr Sollgewicht erreicht hätten und man die 109%-Triebwerke gehabt hätte. Das gilt auch für die Minimalstartgeschwindigkeit von 37.750 m/s solar (13.606 m/s aus einer 186 km hohen Kreisbahn).

Galileo ist zu schwer

So verwundert es nicht, dass man schon 1980 die Planung auf die Centaur G umstellte. Es sollte nicht die erste Umstellung bleiben. Nach meiner Rechnung wäre eine IUS-Variante, die es zumindest in der Planung gab, aber fast ausreichend gewesen. Das war die IUS mit einer zusätzlichen ersten Stufe. Diese Kombination wiegt 27,8 t und wäre so noch transportierbar gewesen, Sie erreicht aus einer Standard-Umlaufbahn 13.333 m/s.

Schlussendlich brauchte Galileo über sechs Jahre zu Jupiter anstatt rund zweieinhalb Jahre wie über einen direkten Transfer oder auch den Umweg über Mars. Das dürfte auch der Grund sein, warum man den Mars nie genutzt hat. Den er hat doch einen Vorteil: Startfenster sind relativ häufig. Es gibt alle 26 Monate Startfenster zum Mars und es gibt alle 13 Monate eines zu Jupiter. Das bedeutet, jedes zweite Jahr wäre ein Weg über den Mars möglich – theoretisch. Es gibt aber noch eine Einschränkung. Auch die Inklination muss passen. Beide Bahnen sind zur Erdbahn geneigt, und wenn Jupiter eine (bei Ankunft) kleinere Z-Position als der Mars hat, so wird es problematisch, ebenso wie wenn Mars unterhalb der Ekliptik liegt und Jupiter oberhalb (oder umgekehrt). Mars hat zu wenig Masse um die Bahnneigung stark zu ändern und das dürfte die praktisch nutzbaren Startfenster doch stark einschränken. So gab es bisher nur zwei Vorbeiflüge an Mars: den von Rosetta und Dawn.

Galileo Zu Flora und Pallas

Nun ist aber Jupiter auch ein schon anspruchsvolles Ziel. Ich habe daher mal die Auswirkungen auf Asteroidenmissionen untersucht. Ein leicht erreichbares Ziel ist (8) Flora, Begründer der gleichnamigen Familie. Dies ist ein 135 km großer Asteroid am inneren Rand des Hauptgürtels. Und für den eigentlichen, äußeren Hauptgürtel habe ich (2) Pallas genommen, den zweitgrößten Asteroiden.

Nun kann man viel variieren. Ich habe mich auf folgende Randbedingungen festgelegt:

Man bekommt dann folgende ΔV Manöver:

Option

Startgeschwindigkeit

Startbahn

Perihelanhegung

Reisedauer

Gesamt-ΔV

Erde → Flora

12.517 m/s

149,6 x 381 Mill. km

3112 m/s

1 Jahr 66 Tage

15.629 m/s

Erde → Mars → Flora

11.978 m/s

149,6 x 302 Mill. km

2210 m/s

1 Jahr 135 Tage

14.188 m/s

Erde → Pallas

13.207 m/s

149,6 x 510,6 Mill. Km

3286 m/s

1 Jahr 233 Tage

16.493 m/s

Erde → Mars → Pallas

12.627 m/s

149,6 x 399,2 Mill. km

2756 m/s

1 Jahr 355 Tage

15.383 m/s

Hier wird deutlich: Je näher das Ziel ist desto mehr bringt der Vorbeiflug am Mars, da Mars auch deutlich das Perihel auf rund 170 Millionen km Höhe anhebt und man so auch bei der Perihelanhebung Treibstoff spart. Zu Flora wird der von mir „empirisch“ gefundene, maximale, Geschwindigkeitsgewinn von 1400 m/s realisiert, doch auch bei Pallas sind es noch 1100 m/s.

In der heutigen Zeit wird man aber diese hohen Gesamt-ΔV mit Ionentriebwerken bewerkstelligen. Schon der Flug zu Flora hat ein Gesamt-ΔV wie die Galileomission beim direkten Flug zu Jupiter. Das entsprach 26 t im Erdorbit und noch 1 t im Jupiterorbit. Dawn änderte ihren Kurs um 11 km/s (plus 11 km/s die sie beim Start erhielt) und dies reduzierte die Sondenmasse nur um 50%. 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99