Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 475: 16.9.2016 - 23.9.2016

16.9.2016: Massenaussterben Teil 4: Das größte Massenaussterben am Ende des Perms

Das vierte Massenaussterben in der Erdgeschichte gilt als das bedeutendste, es war zumindest, was die "Aussterbequote" angeht, das größte: 95% der meeresbewohnenden Arten und 55% der Land bewohnenden Arten starben aus. Das Ereignis markiert gleichzeitig den Wechsel vom Paläozoikum zum Mesozoikum. Was man weiß ist das Es sich über längere Zeit, etwa 200.000 Jahre hinzog. Heute nimmt man auch zwei Wellen an, die jeweils etwa 60.000 Jahre dauerten.

Während man bei den vorhergehenden Ereignissen nicht so genau weiß, was ihre Ursache war oder wie sie genau verliefen, so ist das bei dem Aussterben zum Ende des Perms relativ gesichert. Die heute am besten belegte Hypothese ist eine lang anhaltende magmatische Aktivität. In Sibirien entstand die Trapp-Formation. Über 165.000 bis 600.000 Jahre wurden 7 Millionen Quadratkilometern mit Magma überflutet, die Schichten sind bis zu 3000 m dick. Diese Fläche ist zwanzigmal so groß wie die Bundesrepublik. Da Magma immer Gase enthält die bei der Druckentlastung, wenn sie aus dem Erdmantel in die Erdkruste kommt, frei werden. So werden so in relativ kurzer Zeit sehr viel Kohlendioxid und Chlorwasserstoff freigesetzt. 170 Billionen Tonnen Kohlenstoffdioxid sowie 18 Billionen Tonnen Chlorwasserstoff sollen es gewesen sein. Zum Vergleich: Heute enthält die Erdatmosphäre 3 Billionen Tonnen Kohlendioxid. Alleine der Chlorwasserstoff reicht aus, den pH-Wert weltweit um 0,6 zu senken. Die Säure könnet natürlich auch andere Folgen gehabt haben, wie Schwermetalle aus Gesteinen lösen.

Die wichtigste Folge war ein Anstieg der Temperaturen innerhalb von kurzer Zeit um 8°C. Die Folgen waren vor allem für das Meer verheerend. Zahlreiche Organismen wie Korallen sind sehr temperaturempfindlich und starben aus. Umgekehrt wuchsen Algen und andere einzellige Organismen bei diesen Temperaturen sehr schnell. Beim Absterben reduzierten sie den Sauerstoffgehalt der Meere, der durch die Temperatur schon gesunken war und es kam zu anoxischen Zonen. In diesen sterben dann alle höheren Organismen aus, weil dort Sauerstoffmangel herrscht und meist auch durch den Abbau organsicher Materie giftige Gase, wie Schwefelwasserstoff abgegeben wird.

Manche machen auch die Freisetzung von Methanhydrat als zusätzlichen Faktor verantwortlich. Dies wird auch heute bei uns bei weiter steigender Temperatur auch befürchtet. Methan ist ein noch viel potenteres Treibhausgas und können die Temperaturen weiter angeheizt haben um bis zu weiteren 5 Grad Celsius.

Alternativ wird auch postuliert, dass das Magma auch Kohleflöze in Brand gesteckt hat. Die waren erst im vorhergehenden Erdzeitalter dem Karbon entstanden. Der Großteil unser kohle stammt aus diesen Zeiten. Die Kohle verbrennt zu Kohlendioxid, das könnte den Anstieg des Kohlendioxidgehaltes erklären.

Vor allem die Meeresfauna ist betroffen, weil steigende Meerestemperaturen praktisch nicht abgefedert werden können. Korallenriffe können z.B. nicht ausweichen. Landbewohner hatten die Möglichkeit beim Superkontinent Pangäa in dem damals die meisten Kontinente vereinigt waren zumindest Richtung polwärts auszuweichen. Doch auch die Landfauna war betroffen. So sank aufgrund sinkender Photosyntheserate der Sauerstoffgehalt der Erde auf 15% ab – der niedrigste Wert in der Erdgeschichte seit dem Silur, ansonsten ist der Sauerstoffgehalt immer höher gewesen als heute.

Es gibt auch andere Theorien so wird durch die Bildung von Pangäa wie zum Ende des Ordoviziums ein Rückgang der Flachwasserzonen und Veränderung der Meeresströmungen angenommen. Das wäre eine Erklärung für die stärkere Betroffenheit der maritimen Fauna. Doch warum dies so stark war, im Ordovizium starben viel weniger Arten aus kann die Theorie nicht erklären.

Es gibt auch eine Impakttheorie. Beim Aussterben bei der Kreide/Tertiärgrenze konnte man dies ja auf den Einschlag eines Asteroiden in der mexikanischen Halbinsel Yucatán zurückführen. In der Antarktis hat man einen noch größeren Krater (500 km Durchmesser gegenüber 220 km beim Einschlag am Ende der Kreide) gefunden, der zeitlich auf 250 Millionen Jahre datiert ist. Für diese Theorie spricht das Vorkommen von Fulleren, fussballfömigen Kohlenstoffatomen, die in ihrer Mitte Fremdatome einschließen können. In diesem falle auch Helium-3. Helium 3 ist ebenfalls im interplanetaren Medium stärker konzentriert als in der Erdatmosphäre.

Allerdings gibt es daran einige Zweifel. Bei einem Einschlag dieser Größenordnung wird das Material fast global verteilt. Beim Kreide-Tertiär-Ereignis fand man Iridium selbst 5000 km vom Einschlagsort entfernt in den Gesteinsschichten. Das findet man bei der Perm-Trias Grenze nur in kleinen Spuren. Iridium ist selbst in Gesteinsmeteoriten (nicht nur Eisenmeteoriten) in größerer Menge vorhanden als in der Erdkruste, wo es wahrscheinlich in tiefere Schichten abgesunken ist. Nicht nur das Iridium fehlt, auch typische Impaktprodukte wie Tektite, eine Art geschmolzenes Glas, entstanden durch verflüssigtes Quarzgestein, das beim Flug abkühlte und so glasartig erstarrte. Zudem ist der Krater an sich nicht erforscht, man hat ihn nur auf Daten der GRACE Satelliten erkennen können, die eine Abweichung im Schwerefeld der Erde aufzeichneten. Er ist vom Eis bedeckt und Probebohrungen stehen noch aus. Die Hypothese, dass der Einschlag von einem Kometen stammt, der vorwiegend aus Eis besteht, wird als Gegenargument angeführt, doch ein solcher Körper müsste um einen so großen Krater zu formen mindestens 50 km groß sein. Die meisten Kometen sind aber nur etwa 2-8 km groß. Der größte erforschte ist Halley mit einer Längsachse von 15 km.

Links:

http://www.geologie-ist-alles.at/PDFs/06_B_impakt_massensterben.pdf

http://www.wissenschaft.de/home/-/journal_content/56/12054/1025810/

19.9.2016: Shuttle 2.0

Shuttle 2.0

Ich will heute mal meine Vorstellung eines finanzierbaren Shuttles zur reinen Nutzlastbeförderung skizzieren. Dabei will ich mich soweit möglich auf schon existierende Systeme stützen, ansonsten gebe ich eine Begründung für meine Annahmen. Ich will auch zeigen, wie ich methodisch vorgehe. Anders als „42“ (die Frage nach dem Universum, dem Leben und allem anderem) gehe ich von der Nutzlast aus, anstatt mir ein System zusammenzustellen und dann zu sehen, ob es möglichst viele Nutzlasten transportieren kann. Dieser Ansatz ist natürlich auch möglich. SpaceX scheint so zu arbeiten. Schließlich hat die Falcon 9 seit es sie gibt mindestens drei Versionen mit vier verschiedenen Nutzlastangaben.

Das System, das ich anvisiere, ist auf 6 t GTO-Nutzlast ausgelegt. Das ist die Masse, die heute die größten Satelliten haben. Zukunftssicherheit gibt es durch ein flexibles System von Boostern, das dann noch etwas Luft nach oben bringt. Weiter unten gehe ich dann drauf ein, ob man mit der Variation der Boosterzahl dann eher nach unten oder oben skalieren sollte, also mehr oder weniger Nutzlast.

Die Kickstufe

Das Shuttle selbst erreicht nur einen LEO-Orbit. Die Oberstufe muss dann die Nutzlast in einen höheren Orbit bringen. Wenn der Ausgangsorbit einer von 200 km Höhe ist, braucht man 2457 m/s um eine 200 x 35.889 km Bahn zu erreichen. Wenn man die RL-10A-4 Triebwerke als Basis nimmt, (spezifischer Impuls 4452 m/s) dann ist die Startmasse 1,74-mal höher als die Endmasse. Die Stufe wird dann in etwa die Masse der HM-7 der Ariane 1 haben. Nimmt man deren Strukturmassekoeffizient (inklusive VEB) als Basis (6,34) so kommt man nach einer kleinen Feedback-Simulation auf eine Stufe von 6.086 kg voll und 960 kg leer. Die Gesamtnutzlast im LEO beträgt dann 12.086 kg.

Ohne Berücksichtigung der unteren Stufen könnte diese stufe etwa

Feedbacksimulation – wie geht’s?

Zum Thema Feedback Simulation den ich mehrmals hier verwende. Die Vorgehensweise ist die:

Ich benötige eine Geschwindigkeit X,hier 2457 m/s habe gegeben den Strukturmassekoeffizienten (hier 6,34) und den spezifischen Impuls (hier 4452 m/s) sowie die Nutzlastmasse (hier 6000 kg) dann kann ich zuerst einmal unter der Annahme, dass die Leermasse der Stufe 0 kg beträgt, folgende Gleichung aufstellen:

Startgewicht = Exp(2457/4452)* 6000

Startgewicht = 10419 kg.

Der Treibstoff entspricht dann der Differenz zur Nutzlast: 10419 kg – 6000 kg = 4419 kg.

Teilt man diese Treibstoffmasse, durch den Strukturmassekoeffizienten so kommt man auf die Strukturmasse:

Strukturmasse = 4419 kg / 6,34 = 828 kg

Man zählt diese 828 kg zur Startmasse hinzu und führt die Rechnung noch mal durch, man erhält nun als Startmasse = 11857 kg, Leermasse = 942 kg

Das sind 251 kg mehr, weniger als die 116 kg anfangs. Die Abnahme wird immer kleiner und kann irgendwann abgebrochen werden. Hier eine kleine Tabelle der folgenden Iterationsschritte:


Itrationsschritt 1 2 3 4 5
Startmasse

10419,2

11856,2

12054,4

12081,8

12085,6

Treibstoff

4419,2

5028,7

5112,7

5124,3

5125,9

Leermasse

827,6

941,7

957,4

959,6

959,9

Nach vier Schritten hat man die Stufenmasse auf unter 1 kg Abweichung genau.

Der Orbiter

Das Nächste im Konzept ist dann der Orbiter. Da er die Umlaufbahn erreicht, sollte er so leicht wie möglich sein. Ich habe mich gegen das Space Shuttle Konzept entschieden. Der Orbiter sollte auf das minimal nötige heruntergestrippt werden. Das minimal nötige ist das Antriebssystem und eine aerodynamische Form mit Hitzeschutzschild zum Landen. Das entspricht dem Heck des heutigen Shuttles in einer aerodynamischen Verkleidung. Ich habe auf eine Nutzlastbucht verzichtet. Stattdessen gibt es wie bei einer Rakete eine Nutzlasthülle, die aber wegen der Kollissionsgefahr beim Abtrennen mit den Flügeln des Orbiters erst im Orbit bzw. kurz vorher abgetrennt wird. In der Summe ist dies trotzdem günstiger, denn die Nutzlasthülle wiegt weniger als der Nutzlastraum eines Shuttles und der macht durch größere Flügel und Hitzeschutzschild das Shuttle noch schwerer. Eine Nutzlasthülle von 2 t Gewicht (17 m Länge, 4 m Durchmesser) halte ich für angemessen. Die Masse ist hochgerechnet von der Ariane 5 Nutzlasthülle mit gleicher Länge aber 5,40 m Durchmesser. Das ist dann auch genügend Platz um die Oberstufe mit zu umhüllen. So kann nicht direkt angebracht werden, da der Shuttle ja aerodynamisch sein soll. Ein Gitterrohradapter über dem Nasenkonus addiert eine weitere tonne Gewicht. Er kann vor dem Wiedereintritt abgesprengt werden.

Dies bringt das Gewicht für den Erdorbit auf 15,1 t.

Das offene ist das Gewicht des Orbiters. Hier kann man nur schätzen. Mein Ansatz: ich vergleiche mit existierenden Systemen. Zuerst den Space Shuttles. Die wogen nach Planung 114,4 t beim Start. Die für die Betrachtung wichtigen Teile sind die Triebwerke mit Schubrahmen und OMS aber ohne Treibstoff und die Nutzlast mit Hülle. Dies waren beim Space Shuttle 15,3 und 29,5 t. Das ist ein „Nutzlastanteil“ von 39,1%.

Das bedeutet, wenn man noch die Masse der Triebwerke kennt, wird das fertige Shuttle etwa 2,5-mal schwerer sein als Triebwerke und Nutzlast. Das ist doch etwas ungünstig. Doch es gibt ja noch den Dream Chaser. Der wiegt leer 9 t und transportiert 5,5 t Nutzlast, das ist ein Nutzlastanteil von 38% allerdings mit Treibstoffzuladung (beim Shuttle ohne). Ohne Treibstoff sind es 40,3%. Beide Systeme haben aber einen großen Nutzlastraum, denn wir oben eingespart haben. Also nehmen wir die 40% nur für die eigentliche Nutzlast und die Triebwerke und addieren die 3 t für die Nutzlasthülle und Adapter später hinzu.

Triebwerke des Orbiters

Das leitet über zur Triebwerkswahl. Der einfachere Teil ist der Manövriertriebwerke. Man baucht zwei Gruppen. Einige schwache um kleine Drehungen und Lageänderungen durchführen zu können. Dafür reichen vorhandene RCS-Triebwerke für Satelliten von 100 bis 400 N Schub. Das größere ist notwendig zum Abbremsen aus dem Orbit. Hier habe ich mich für das Aestus entschieden. Bei einem dV von 200 m/s (100 m/s um den Orbit zu erreichen 100 m/s zum Abbremsen) braucht man 6,4% der Masse als Treibstoff.

Schwerer wird die Auswahl des Haupttriebwerks. Sein Schub legt die Masse des Treibstofftanks nach dem Abtrennen der ersten Stufe bzw. der Booster fest. Ich habe mich für LOX/LH2 entschieden, und da das Triebwerk mehrfach verwendet werden sollte, für das Vulcan 3R, eine Variante des Vulcain die wiederverwendbar ist und für die LFFB vorgeschlagen wurde. Es ist 7-mal einsetzbar, hat einen spezifischen Impuls von 4138 m/s im Vakuum, wiegt 2370 kg bei 1622 kN Vakuumschub. Bei einer Beschleunigung von 0,8 g nach der Abtrennung (gängiger Wert bei zweistufigen Raketen) reicht es aus um 203 t Masse zu beschleunigen.

Für die Triebwerksanlage komme ich so zu folgenden Massen:

So kommt man zu einem Antriebsgewicht mit Adapter von 8 t. Bei dem Faktor von 0,4 ist dann der gesamte Orbiter 20 t mit Nutzlast 32 t schwer. Dazu kommen dann noch 2 t für die Nutzlasthülle. Insgesamt sind es also 34 t.

Der Tank

Für den Treibstoff braucht man dann noch einen Tank. Der Space Shuttle Tank kann hier als Vorbild dienen. Allerdings in etwas modernisierter Form. Er wurde in den Siebziger Jahren entwickelt. Später wurde er modernisiert, indem eine leichtere Legierung eingeführt wurde, allerdings nur beim LH2-Tank. Macht man dies auch beim LOX-Tank und der Zwischentanksektion, so sinkt die Trockenmasse auf 25.888 kg bei 746.981 kg Startmasse. Das ist ein Strukturmassekoeffizient von 28,85.

Bei 203,2 t Startmasse darf so der Tank bei Abtrennung noch 169,2 t wiegen. Das entspräche einer Leermasse von 5,9 t, allerdings ist dies nicht die endgültige Masse, denn man wird das Triebwerk vom Start weg laufen lassen. Für wie lange kann man aber erst sagen, wenn man die Brennzeit der ersten Stufe kennt. Es ist aber eine Hausnummer um die erste Stufe abzuschätzen.

Mit dieser Stufe würde ein ΔV von 7024 m/s durchgeführt werden.

Erste Stufe

Für die Größe der ersten Stufe ist zuerst einmal das ΔV wichtig. Da die OMS-Triebwerke 100 m/s aufwenden, braucht man nur 7700 m/s für eine Erdumlaufbahn. Die Gravitationsverluste habe ich zu 2000 m/s angesetzt, etwa 200-300 m/s mehr als wie bei einer aerodynamisch idealen Form. Zieht man die 7024 m/s ab, so verbleiben 2676 m/s. Davon 776 m/s als horizontale Geschwindigkeit.

Die erste Stufe soll LOX/RP1 einsetzen. Die Wahl kommt auch daher, weil sie weich landen sollen und daher zum Startort zurückfliegen sollen. Dazu benötigen sie ein Düsentriebwerk und das kann mit dem RP1 aus den Treibstofftanks gespeist werden.

Typisch gehen die Booster bei der Abtrenngeschwindigkeit von 776 m/s weniger als 400 km vor der Küste nieder. Ein Düsentriebwerk hat eine Reisegeschwindigkeit von 800 km/h. Nimmt man eine Stunde Reisezeit an und ein Triebwerk des Typs CFM56-3B4 ein (bei der Boeing 737 eingesetzt) so verbraucht das nach Wikipedia 11,8 t Treibstoff in einer Stunde. Dieser Treibstoff und das Triebwerksgewicht von 1941 kg kommen zur Trockenmasse hinzu. Dann braucht man noch ein Leitwerk und Flügel. Hier habe ich Differenz der Masse der Pegasus Erststufe zur baugleichen Taurus Zweitstufe (ohne Flügel) als Referenz genommen, das sind 49% mehr bei der Trockenmasse der Rakete.

Als Triebwerk habe ich in einer ersten Überlegung das RD-191 ausgesucht, da es wiederverwendbar ist. Eine geflügelte Angara war ja mal angedacht als „Baikal“. Bei dem spezifischen Impuls von 3310 m/s kommt man bei einer Zielgeschwindigkeit von 2676 m/s auf ein Voll-/Leermasseverhältnis von 2,25. Nimmt man die Trockenmasse der Atlas V als Basis, erhöht um die 49% für die Flügel, so kommt man auf einen Strukturfaktor von 10. Das Düsentriebwerk und der Treibstoff kommen als konstanter Faktor zur zweiten Stufe hinzu, da sie immer anfallen, egal wie schwer die Stufe ist. Erneut kommt man durch Feedback-Rechnung auf die Masse der ersten Stufe: 370.150 kg + (2x 11.800 kg Düsentreibstoff + 2 x 1941 kg Düsentriebwerk) / 37.016 kg. Das ist dann eine Trockenmasse pro Booster von 33 t, in etwa das Gewicht einer leeren 737. Dafür reicht dann ein Triebwerk aus, da eine 737 mit einem Triebwerk noch fliegen und landen kann.

Bei einer Gesamtmasse von 601.012 kg und einem Startschub des RD-191 von 1922 kN braucht man für eine Startbeschleunigung mit 1,2 g insgesamt 3,7 RD-191. Da noch das Vulcain 3R arbeitet, kommt man mit 3 Triebwerken aus. Diese brennen 191,2 s lang. Damit kann man nun auch die Treibstoffzuladung des Tanks berechnen. Dies sind weitere 71.800 kg, was zu einem Tankgewicht von weiteren 2.600 kg führt. Damit hat man die Bilanz:

Stufe

Vollmasse

Leermasse

Spezifischer Impuls

Brennzeit

Kickstufe

6.086 kg

960 kg

4452 m/s

253 s

Orbiter OMS

3.711 kg

511 kg

3187 m/s

174 + 181 s

Tank

243.600 kg

8.500 kg

4139 m/s (Vulcain 3R)

191,2 + 408,8 s

Booster:

2 x 198.816 kg

2 x 38.957 kg + 11.800 kg Düsentreibstoff

3310 m/s

191,2 s

Nun erst kann man eine Nutzlastbilanz des Gesamtsystems aufstellen. Die Nutzlast unterscheidet sich von der geplanten, weil ich bei der Berechnung der ersten Stufe nicht den Treibstoffverbrauch des Vulcain 3R mit einberechnet habe, der erst nach Festlegung der Boostermassen feststeht. Zudem ist auch die Tankmasse nun verändert. Als Optimierung habe ich die Nutzlasthülle und Adapter mit dem Tank abgetrennt, da gibt es eine kurze Freiflugphase, bevor man die OMS-Triebwerke zündet. So kann man die Möglichkeit einer Kollission mit einem sich beschleunigenden Orbiter ausschließen. Ich erhalte eine Nutzlast von 13.506 kg. Damit kann man folgendes Datenblatt aufstellen.

Parameter

Wert

Nutzlast GTO

6.000 kg

Stufe 3 Vollmasse:

6.086 kg

Stufe 3 Leermasse

960 kg

Stufe 3 Triebwerk:

1 x RL-10A4

Nutzlast LEO: (genau berechnet)

8.506 kg

Nutzlasthülle:

2.000 kg

Adapter

1.000 kg

Orbiter mit Nutzlast:

34.000 kg

Davon Haupttriebwerk Vulcain 3R

2.370 kg

Davon OMV Triebwerk Aesus

111 kg

Davon RCS Triebwerke (6 x 227 N)

54 kg

Davon OMV+RCS Treibstoff, Tanks und Druckgas

3.600 kg

Davon Schubrahmen

800 kg

Davon Tragflügel, Hitzeschutzschild, Fahrgestell, elektrische und hydraulische Systeme

11.940 kg

Tank Vollmasse:

243.600 kg

Tank Leermasse

8.500 kg

Booster Startmasse:

199.000 kg

Booster Brennschlussmasse:

50.800 kg

Davon Triebwerk CFM56-7B

1.941 kg

Davon Treibstoff für Düsenantrieb

11.800 kg

Davon Flügel, Leitwerk und Fahrwerk

12.400 kg

Davon Stufe mit RD-191

24.700 kg

Anzahl der RD-191:

3

Gesamtstartmasse

602.000 kg

Wenn man nun das ganze durchrechnet d.h. Mit Berücksichtigung, dass schon beim Start Treibstoff aus dem Tank verbraucht wird, so fällt die Nutzlast etwas ab auf 8,5 t. Vor allem braucht man sehr viele RD-191. Drei ist zudem eine unglückliche Zahl, die man schwer auf zwei Booster aufteilen kann.

In einer Optimierung setze ich daher auf Booster mit je einem RD-181. Dafür zwei, drei oder vier. Bei dem Bodenschub von 3827 kN kann ein Booster in der zwei Booster-Kombination 255.000 kg beim Start wiegen, das korrespondiert mit einer Brennschlussmasse von 38.000 kg. Mit zwei, drei oder vier Boostern kann man dann auch die Nutzlast anpassen. Man erhält folgendes neues Datenblatt:

 

Stufe

Vollmasse

Leermasse

Spezifischer Impuls

Brennzeit

Kickstufe

6.086 kg

960 kg

4452 m/s

253 s

Orbiter OMS

3.711 kg

511 kg

3187 m/s

174 + 181 s

Tank

243.600 kg

8.500 kg

4139 m/s (Vulcain 3R)

187,9 + 413,1 s

Booster:

2 x 255.000 kg

2 x 38.000 kg

3312 m/s

187,9 s

Mit nur zwei Boostern kommt man so auf eine Nutzlast von 17,3 t. Mit drei Boostern sind es 24 t und mit vier 29 t – genauso viel wie das Space Shuttle. Durch die höhere Nutzlast könnte man dann auch an die Verwendung schon existierender Stufen wie der Centaur denken, zumindest bei der größeren Ausbaustufe. Bei Weglassen von Treibstoff auch bei der zweitgrößten, oder man greift zur Oberstufe der H-IIA die ist etwas leichter.

Rakete: Shuttle 2.0 2 Booster

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
79295917359 078002000 2,19 %
StufeAnzahlNameVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
12 290900380003427
21 173800105004139
31 20000180003187

Rakete: Shuttle 2.0 3 Booster

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
105470324104 078002000 2,29 %
StufeAnzahlNameVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
13 278933380003394
21 173800105004139
31 20000180003187

Rakete: Shuttle 2.0 4 Booster

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
131514929549 078002000 2,25 %
StufeAnzahlNameVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
14 272950380003375
21 173800105004139
31 20000180003187

Rakete: Shuttle 2.0 2 Booster V1

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
Nutzlastanteil
6696038603 078002000 1,28 %
StufeAnzahlNameVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
12 234900508003530
21 171200105004139
31 20000180003187

21.9.2016: Homöopathie und was die Berufswahl über das Denken verrät

Gestern sah ich bei 3SAT einen österreichischen Beitrag über Homöopathie. Er war für mich relativ unergiebig. Er bestand im wesentlichen aus den Statements von Befürwortern und Gegnern, jeweils isoliert aufgenommen ohne Dialog und es handelte sich um extreme Vertreter beider Seiten entweder total dagegen oder total dafür.

Aber einige Punkte will ich doch aufgreifen. So sagte ein Quantenphysiker, dass man Homöopathie nicht beweisen könne, das wäre eine Verharrung im mechanistischen Denken. Es ginge ja schließlich um die Information die übermittelt werde. Die zwei Grundgedanken der Homöopathie sind ja: Eine Substanz, die bei einem Gesunden bestimmte Symptome verursacht, lindert, genau diese bei einem Kranken und dies geschieht um so besser je stärker man sie verdünnt. Das führt dazu dass bei höheren Verdünnungsstufen (in der Homopathie-Nomenklatur Potenz genant) gar kein einziges Molekül der Ausgangssubstanz enthält und schon bei niedrigen Potenzierungen die therapeutisch wirksame Konzentration unterschritten wird. So was ist natürlich in der heutigen Medizin, die auf molekularer Ebene inzwischen die Krankheiten erklärt, nicht beweisbar. Ist dort keine Substanz vorhanden, kann sie auch nichts bewirken.

Was man aber angehen kann ist dieses Modell. Beobachten kann man ja nur, ob es eine symptomatische Verbesserung gibt oder nicht. Soweit ich weiß, gab es die einzigen Überprüfungen aber nur vor 150 Jahren, als ein Arzt diese Behandlungsmethode entwickelte. Doch auch damals nicht systematisch. Wenn ich annehme, dass das Modell stimmt, also stark verdünnte Lösungen eine heilende Wirkung haben. So vermisse ich doch die systematische Untersuchung. Man macht(e) es sich ziemlich einfach. Wenn Eisenhut bei Gesunden Herzbeschwerden verursacht so muss er Kranken helfen. Man hat also einfach immer ein Mittel für Symptome eingesetzt, die es sonst verursachen würde (mit Betonung auf Symptome z.B. wird Bienengift gegen Gicht eingesetzt obwohl deren Entstehung nichts mit der Wirkung von Bienengift zu tun hat sondern nur gerötete, heiße und geschwollene Haut gleiche Symptome sind). Was man aber nicht probiert hat, ob nicht auch die vielen anderen Pflanzen oder andere Wirkstoffe die verdünnt eingesetzt werden, wirken. Wenn die ganze Methode nur auf Beobachtung beruht, wie man es damals nur machen konnte, warum hat man sie niemals systematisch durchgeführt also ein breites Screening, was wo hilft oder nicht hilft oder welche andere Wirkungen hat?

Vor allem muss dies ja dann auch für andere Dinge gelten. Wenn ich das Modell übernehme, auf unsere zivilisatorischen Einleitungen ins Wasser, dann wird mir Angst und Bange. Wir finden heute im Abwasser in Spuren Pestizide, Hormone, Arzneimittel, Antibiotika, Umweltkontaminanten und Schwermetalle. Alle in einer Konzentration, die nicht akut giftig ist. Wenn ich das „Gesetz der Homopathie“ auf diese Substanzen übertrage, dann müssten diese Spuren auch wirken, sogar noch stärker als die Reinsubstanzen, denn je verdünnter etwas in der Homopathie ist desto wirksamer ist es. Da ihre Wirkung aber immer umgekehrt der von großen Mengen ist, müssten Hormone und Wirkstoffe im Wasser gerade die gegenteilige Wirkung haben. Östrogene, die in der Pille sind, müssten also wie Testosteron wirken. Reste von Blei müssten und vor Anämie schützen und so weiter. (So müssten z.B. Pestizide der Gruppe der Cholinesterasehemmer die Nervengifte sind, in Spuren dann ja das Denkvermögen erhöhen...)

Erst am Schluss wurde es interessant. Kein Anhänger der Homöopathie konnte leugnen, dass es bisher keine größere Studie gab, die eine Wirkung irgendeines Verfahrens beweisen konnte. Kleine Studien mit methodischen Mängeln (z.B. zu kleine Teilnehmerzahl) sprachen dafür aber, wenn man das mit größeren Teilnehmerzahlen wiederholte, um statistische Fehler zu eliminieren, zeigte sich, dass dem nicht so war. Die Sprecherin sagte dann, dass aber keine der Gegner den Placeboeffekt leugnete und der wäre ja auch nicht erklärbar. Nun ja nicht ganz. Krankheit hat etwas mit Körper und Geist zu tun. Wir können Krankheiten mit Medizin behandeln, wir können sie aber auch behandeln, indem wie dem Menschen Zuwendung geben und damit ihn von Sorgen befreien, was seinem Geist gut tut. Das hat auch nichts mit Homöopathie zu tun, das ist eine Erkenntnis, die zur Schaffung ganzer Berufsgruppen führt. Sozialpädagogen, Bewährungshelfer und Psychologen wären ohne diese Erkenntnis völlig überflüssig. Selbst bei Tieren hilft Zuwendung und wirkt heilend. Wie heißt es so schön: Geteiltes Leid ist halbes Leid. Gerade ein Psychiater heilt ja durch intensive Gespräche und nicht Medikamente. Und gerade die Anamnese, also das Aufnahmegespräch ist ja bei der Homöopathie so umfangreich und die Patienten glauben ja auch an die Wirksamkeit, was wiederum eine Heilung durch den Placeboeffekt erklärt.

Was mich überraschte war das ein Quantenphysiker bei den Homopathiebefürwortern war. Ich habe eine Hypothese, die sich bisher auch im Kontakt mit Leuten bestätigt hat, nämlich das bei den meisten Menschen die Berufswahl doch viel über ihren Zugang zu einem Gebiet festlegt. Jeder Beruf hat andere Anforderungen an den Menschen. Es geht mir aber nur um die geistigen Anforderungen. So gesehen fallen aus meiner Hypothese alle Berufsgruppen heraus, die vorwiegend handwerklich arbeiten. Denn die werden geistig nicht in dem Maße gefordert. Es kann sein, dass sie auch nicht so an Gebieten interessiert sind, in denen man sich geistig anstrengen muss, es kann aber auch sein, dass sie einfach diesen Beruf haben, weil man da gut Geld verdienen kann.

Beschränken wir uns mal auf die Dinge, bei denen man ein Studium absolvieren muss, das ist ja vor allem geistiges Lernen. Da haben verschiedene Fächer schon sehr unterschiedliche Herangehensweisen. Wer etwas Naturwissenschaftliches, in abgeschwächter Form aber auch etwas Technisches studiert, der wird sehr bald das Ursache- → Wirkungsmodell verinnerlichen. Alles hat eine Ursache und eine Wirkung. In gewisser Weise ist die Welt deterministisch. Das gilt für Naturwissenschaften, Technik und Medizin. Einige Beispiele: Bestrahle ich Chloratome in einem Gemisch mit Methan mit Licht einer Photonenenergie, die über der Bindungsenergie des Chloratoms liegt, dann spalte ich die Bindung und das Chlor wird sich mit Methan zu Chlormethan verbinden, (Chemie). Wenn ich eine Oberfläche aus Gestein mit anderem Gestein glätten will, so sollte dieses einen höheren Härtegrad haben (Technik). Wenn ich Kopfschmerzen habe, kann ich sie lindern, indem ich ein Schmerzmittel nehme, dass die Rezeptoren der Nerven belegt die Schmerzen übertragen (Medizin). Wenn man dagegen Sozialwissenschaften studiert, aber auch Psychologie, dann hat man es mehr mit abstrakten Erklärungsmodellen zu tun, die oft in Konkurrenz stehen. Alle versuchen, irgendwie eine Erklärung für menschliches Verhalten, aber auch geistige Krankheiten zu finden. Immerhin kann man sie noch überprüfen, indem man Therapien, die auf diesen Modellen beruhen, vergleicht. Aber dieser Berufsbereich hat es schon nicht mit richtigen harten Fakten zu tun, gar nicht mehr mit Mathematik und Berechnungen. In den Geisteswissenschaften wie Philosophie kann man nicht mal die Vorstellungen beweisen. Im Prinzip hat man es mit synthetischen Modellen zu tun ob es nun Sprachregeln sind oder Vorstellungen wie die Welt oder Menschen funktionieren. Zuletzt gibt es noch die Betriebsgruppe, die zwar auch viel mit Zahlen und Mathematik zu tun haben, aber nicht im naturwissenschaftlichen Sinn. Es gibt also nicht berechenbare Zusammenhänge oder Ursache-Wirkungen und damit deterministische Vorhersagungen. Vielmehr entstehen die Zahlen durch den Menschen und damit haben sie eine gewisse Willkürlichkeit. In Naturwissenschaft und Technik gibt es Grenzen und selten abrupte Sprünge. Nehmen wir mal ein Beispiel aus der Raketentechnik: Tanks kann man nicht beliebig leicht herstellen, irgendwann reist die Haut unter dem Gewicht des Treibstoffs. Das ist bestimmt durch eine Materialkonstante und über eine Formel (Kesselformel) berechenbar. Im Finanzwesen können Sprünge vorkommen, die völlig stochastisch sind und es scheint keine Grenzen zu geben. Der Wert einer Währung kann bei Inflation ins bodenlose Fallen (Beispiel: Ende 1923 kostete ein Brot 1 Milliarde Reichsmark). Firmen können mal enorme Gewinne, mal enorme Verluste machen (Beispiel Volkswagen). Ich vermute, dass man in einem solchen Beruf nicht mehr logisch nachfragt, wenn man es in einem sachfremden Gebiet mit komischen Zahlenangaben zu tun hat. Mein Paradebeispiel ist da ja die Falcon 9: Die hatte vor zwei Jahren 480 t Startmasse und 4,85 t Nutzlast. Nun sind es 540 t und 8,2 t Nutzlast. Die Nutzlast ist also viel stärker angestiegen als die Startmasse. Dabei hat man die Rakete technisch kaum verändert, also nicht grundsätzlich neue Triebwerke oder eine neue Oberstufe eingeführt. Mir als naturwissenschaftlich vorgebildetem Menschen kommt dies seltsam vor. Vielen anderen nicht. Vielleicht würden sie Verdacht schöpfen, wenn ein Autohersteller ein neues Auto auf den Markt bringt. Das Alte wiegt 5,4 t das neue 4,8 t. Es verbraucht aber nur noch 4,85 l pro 100 km anstatt 8,2 l (das ist die gleiche Effizienzsteigerung wie bei der Falcon 9) Würde man da auch so leichtgläubig sein? Mein Paradebeispiel für die Theorie ist ja Eugen Reichl. Bei ihm gibt es bei Zahlenangaben so viele Fehler, selbst bei Datumsangaben, viele offensichtlich (so der Erstflug der Ariane 1 vor deren Entwicklungsbeginn). Reichl ist Betriebswirt, da scheinen Zahlen schon von Berufswegen nicht wichtig zu sein, da dauernden Veränderungen unterworfen (Bsp: Kosten von BER und Stuttgart 21)

So gesehen erstaunte mich der Quantenphysiker. Eigentlich ist Physik ja die deterministische Wissenschaft an sich. Mit Gleichungen kann man alles erklären. Übermorgen feiern wir die 170-sten Jahrestag der Entdeckung Neptuns, der wurde durch Berechnung nach Newtons Gravitationsgesetz gefunden. In der Praxis klappt es zwar nicht immer mit der Umsetzung der Formeln, weil es Störeinflüsse gibt, doch letztendlich sind selbst die berechenbar. So errechnen heute Supercomputer das Wetter und Klima von Morgen und das trotz vieler gegenseitiger Beeinflussungen. Bei einem Physiker erwartet man also nicht so sehr, dass er so etwas Vagem wie dem Erklärungsmodell der Homopathie anhängt, das würde ich nun eher bei einem Psychiater oder Germanisten erwarten. Aber Quantenphysik ist eine Ausnahme: Ab einer bestimmten Grenze ist diese nicht mehr deterministisch berechenbar, Stichwort Heisenbergsche Unschärferelation. So gesehen hat vielleicht gerade dieser Beruf doch eine gewisse Affinität zu nicht berechenbaren Erklärungsmodellen.

23.9.2016: Die Entdeckung Neptuns vor 170 Jahren

Heute vor genau 170 Jahren jährt sich die Entdeckung Neptuns. Zeit dieses Ereignis zu rekapitulieren. Die erste Frage die sich auftut ist die, warum man überhaupt nach Neptun suchte. Es gibt dazu zwei Antworten. Die Erste ist die Titus-Bodesche Reihe. Das ist die Formel:

a = 0,4 + 0,3 * 2n

Mit n = 0 bis 6 erhielt man die Entfernungen der Planeten Venus bis Uranus in astronomischen Einheiten, das ist die Halbachse der Erdbahn die per Definition 1 ist. Für Merkur muss man n auf -∞ setzen, das ist nicht ganz befriedigend, jedoch funktioniert es auch bei Merkur. Die Reihe wurde schon vor der Entdeckung von Uranus entwickelt. 1766 von Titus. 1772 machte die Bode allgemein bekannt. Als man 1781 Uranus entdeckte und seine Entfernung mit einem Fehler von nur 2,14 % zu der Reihe passte, war man überzeugt, dass man noch weitere Planeten finden könnte. Der nächste Planet außen wäre bei einer Entfernung von 38,8 AE zu erwarten. Ein solcher Planet wurde auch gefunden, aber erst 1930 – Pluto ist im Mittel 39,48 AE von der Sonne entfernt.

Die Titus-Bodesche Reihe erhielt noch mehr Auftrieb, als man um 1800 den ersten Kleinplaneten Ceres entdeckte und der genau in die Lücke zwischen 2 (Mars) und 4 (Jupiter) passte. Auch das sich bald herausstellte, das es nicht ein Planet war, sondern viele Kleinplaneten enttäuschte nicht, denn immerhin stimmte die Reihe, nur hatten die kleinen Körper nicht zueinandergefunden, wofür wie wir heute wissen, Jupiter verantwortlich ist. Nach der Titus Bodschen Reihe müsste man zwei weitere Planeten bei 77,2 und 154 AE erwarten. Man sollte mal die Verteilung der Halbachsen der Kuiper-Gürtelobjekte statistisch untersuchen, ob da nicht in dieser Distanz eine Häufung ist.

Uranus und die Bahnstörungen

Das Zweite war Uranus. Man hatte in 1781 entdeckt und verfolgte ihn seitdem. 1821 wurden erste Bahndaten veröffentlicht. Um 1835 hatte er schon einen Dreiviertel Umlauf durchlaufen und Beobachtungen zeigten, dass die Position am Himmel von der berechneten um +20 Bogensekunden bis 1830 abwich, dann aber plötzlich der Bahn hinterherhinkte und bis 1845 um -60 Bogensekunden von der berechneten Position abwich. 60 Bogensekunden sind ein Dreißigstel des Monddurchmessers. Das klingt nach wenig war damals aber schon präzise zu messen. Etwa zeitgleich bestimmte man z.B. die erste Sternparallaxe und die des nächsten Sterns ist nicht mal 0,7 Bogensekunden groß. Gaia, der neueste ESA-Satellit für die Vermessung des Universums, misst auf 0,000025 Bogensekunden genau.

Daher kamen zwei Astronomen auf die Idee diese Abweichungen könnten durch einen weiteren Planeten verursacht worden sein. Die Verschiebung vom positiven zum Negativen bedeutet, das um 1830 Uranus diesen Planeten überholt hatte, sodass er nun in der anderen Richtung an Uranus zerrte. Die beiden Astronomen waren John Adams und Urbain Le Verrier. Beide wandten dieselbe Methode an, eine Umkehrung der Störungsberechnung. Bei dieser berechnet man im Normalfall, wie ein Körper den anderen in seiner Bewegung stört. Nun versuchten beide, über die Abweichung die Position des Körpers zu berechnen.

John Adams war der Erste. Er hatte schon im Mai 1845 die erste Position berechnet. In der Folge versuchte er mehrmals George Airy zu kontaktieren und ihn von der Wichtigkeit einer suche zu überzeugen. Airy war königlicher Astronom und leitete die Beobachtungen von Uranus, der nach der Entdeckung durch Herschel als englischer Planet galt (Herschel war Deutscher, stand aber in englischen Diensten). Er kam jedoch nicht durch.

Die Suche

In Frankreich hatte etwas später Le Verrier mit seinen Rechnungen begonnen. Er hatte im Juni 1846 seine Berechnungen begonnen. Doch auch er stieß in Paris nicht auf viel Begeisterung. Immerhin gelangte die Kunde nach England. Nun erinnerte sich Airy, dass schon seit Monaten Adams mit genau demselben Anliegen ihn kontaktieren wollte. Airy beauftragte er den Astronomen Challis nach der Suche. Dieser ging diese aber nur halbherzig an und widmete ihr nicht viel Zeit.

In Frankreich erinnerte sich Le Verrier an einen Brief, den ihm der Doktorand Johann Galle zusammen mit seiner Promotionsarbeit geschickt hatte. Le Verrier interessierte sich für den Merkur und der war auch Forschungsgegenstand von Galle bei der Promotion. Galle war nun zum Direktor der Berliner Sternwarte berufen worden. Diese hatte nicht nur einen Frauenhofer-Refraktor, eines der besten Teleskope dieser Zeit, sondern man arbeitete dort auch an den bisher besten Sternkarten, die in deutscher Gründlichkeit hergestellt wurden. Sternkarten waren der Schlüssel für die Suche. Man bestimmte die Koordinaten jedes Sterns im Teleskop und verglich sie mit der auf der Sternkarte. Ein Planet wäre ein nicht verzeichneter Stern. Le Verrier schrieb am 18.9.1946 einen Brief an Galle, der am 23.9.1846 ankam.

Diese schnelle Beförderung halte ich persönlich für die größte Sensation in der Entdeckungsgeschichte. 1846 gab es noch ein vollständiges Schienennetz. 1835 war die erste Eisenbahn in Deutschland gefahren, bis 1942 gab es gerade mal 1000 Eisenbahnkilometer. Ich kann mich an Urlaubspostkarten in den achtziger Jahren des letzten Jahrhunderts aus Frankreich erinnern die 130 Jahre später weitaus länger als 5 Tage nach Deutschland brauchten....

Die Entdeckung

In dem Brief bedankte sich Le Verrier für die zugeschickte Arbeit und bat Galle für ihn nach dem Planeten zu suchen. Dieser müsste mit 3 Bogensekunden Größe sich von einem Stern unterscheiden. Galle machte sich sofort an die Arbeit, obwohl eigentlich Institutsdirektor Encke Geburtstag hatte und es ein Festbankett gab. Galle nahm sich die Gegend um Le Verriers Vorhersagen vor und nach kurzer Zeit gab er seinem Assistenten Louis D‘Arrrest ein Objekt durch, der darauf antwortete „Der Stern steht nicht auf der Karte“. Schnell riefen sie Encke hinzu, der die Entdeckung bestätigte. In den folgenden beiden Nächten überprüften sie, ob sich das Objekt bewegte und am 25.9.1846 schrieb Galle einen Brief an Le Verrier in dem Er die Entdeckung mitteilte. Der machte die gleich bekannt und gab dem Planeten auch gleich einen Namen: Neptun. Die Namensvergabe stand eigentlich dem Entdecker zu doch Galle war damit einverstanden.

Anfang Oktober kam die Nachricht in England an und nun begann ein Konflikt der nationalen Eitelkeiten. Man verwies dort, dass Adams die Position schon Monate vorher erkannt hätte und so eigentlich der richtige Entdecker gewesen wäre. Besonders blamabel war, das Challis wie sich zeigte im Juli und August 1946 und zuletzt am 29.9.1946 mehrmals Neptun beobachtet hatte ihn aber nicht als Planet erkannte, obwohl er am letzten Beobachtungstag „Seems to have a disc“, vermerkte er also keinen Stern gesehen hatte. Das Unbestrittene war aber, das Adams nichts publiziert hatte und Challis nichts entdeckt hatte.

Was ich für viel bedeutsamer halte ist, dass ein französischer Astronom einen deutschen für eine Suche anschreibt. Galle führt sie sofort durch, veröffentlicht nichts und teilt die Entdeckung nur Le Verrier mit. Schließlich gab es noch mehr nationale Ressentiments zwischen Deutschland und Frankreich, das schon damals als Erbfeind galt. Es sollten noch drei Kriege geführt werden, bis sich dies auch bei der Allgemeinheit änderte. Das zeigt das die Wissenschaft damals und ich denke auch heute in Sachen Offenheit und Zusammenarbeit viel weiter als die Allgemeinheit ist.

Wie sich zeigte, wurde Neptun, der bis zu 8,7 Mag hell sein kann, und damit zumindest als Lichtpunkt schon in kleinen Fernrohren sichtbar ist schon sehr oft vorher beobachtet worden, das erste Mal schon von Galilei am 28.12.1613.

Ein Glücksfund

Erst später untersuchte man die Daten genauer. Adams und Le Verrier gingen beide bei ihrer Berechnung von einer Bahn mit 39 AE Entfernung aus. Diese wäre nach der Titus-Bode-Reihe zu erwarten. Bald erkannten sie das diese Bahn nicht zu den Abweichungen passte. So reduzierten beide den Abstand und machten die Bahn elliptisch, wobei das Perihel nahe an der Position Uranus lag die dieser 1846 hatte. Das war eine Vorgehensweise nach „Versuch und Irrtum“: Man bestimmte die Einflüsse auf einer Bahn. Wenn diese nicht zu den Abweichungen passte, musste man die Startposition ändern. Wenn das auch nicht passte, die Bahn ändern.

Le Verrier hatte die Position auf 1 Grad genau berechnet, das sind etwa zwei Vollmonddurchmesser. Adams kam nie so nahe heran. Im September 1945 und Oktober 1845 kam er auf etwa 3 Grad an die wahre Position heran. Doch meistens lag er weit daneben. Neptun wurde bei 327 Grad ekliptikaler Länge gefunden. Adams Angaben schwankten zwischen 315 und 350 Grad. Kein Wunder, das Airy ihn bei so stark schwankenden Werten ihn lange Zeit ignorierte.

Beide lagen mit ihren Bahnen relativ falsch, wie sich später bei der Bahnvermessung herausstellte. Sie kamen nur zur richtigen Vorhersage, weil die Bahnen stark elliptisch waren und das Perihel nahe dem Punkt war, wo Neptun sich damals befand:

  Adams Le Verrier Real
Halbachse [AE] 37,25 36,15 30,33
Exzentrizität 0,12062 0,107062 0,009456
Perihel [AE] 32,75 32,28 30,22
Aphel [AE] 41,74 41,24 30,61
Umlaufszeit [Jahre] 227,3 217,4 164,8
Masse [Erdmassen] 50 37 17,2

Der richtige Zeitpunkt

Man kann von einem glücklichen Zufall ausgehen. Wäre Neptun später oder früher gesucht worden, wenn er weiter von Uranus entfernt gewesen wäre, so wäre er mit geringen Störungseinflüssen wohl mit einer Rechnung von Hand nicht gefunden worden. Dazu ist die Umkehrung des Störungsverfahren zu aufwendig. Schon die starke Schwankung von Adams Positionen zeigt das Manko des Ansatzes von versuch und Irrtum. Eventuell hatte auch Le Verrier nur Glück, dass er eine Position errechnete, die stimmte. Die Bahn, die er ansetzte, hatte nichts mit der Neptunbahn zu tun. Aufgrund der größeren Bahn vermuteten auch beide einen größeren Körper. So gab Le Verrier die Größe mit 3 Bogensekunden an, Galle vermerkte, das der Durchmesser 2,2 bis 2,5 Bogensekunden betrug.

England konnte zumindest einen Erfolg verbuchen. Der Bierbrauer Lassell nahm den Planeten mit seinem 60-Zoll-Spiegelteleskop kurz nach Bekanntwerden der Entdeckung ins Visier und entdeckte am 10. Oktober den ersten Neptunmond Triton. Der ist mit 13,5 mag Helligkeit rund 100-mal lichtschwächer als Neptun. Triton ist in den scharfen Refraktoren der Berliner Sternwarte nicht sichtbar. Deren optische Qualität ist zwar besser. Man kann so große Refraktoren aber nicht herstellen, da würden sich die Glaslinsen durch ihr Eigengewicht verformen.

Seitdem sind nun 170 Jahre vergangen. Die Dimensionen des Sonnensystems werden deutlich, wenn man sich klarmacht, dass seit seiner Entdeckung Neptun gerade mal einen Umlauf absolviert hat. Neptun braucht 165 Jahre für einen Umlauf!


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99