Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 459: 30.4.2016 - 8.5.2016

30.4.2016: Wie kommt man zu Chiron?

Wahrscheinlich werden sich 99% der Blogleser nicht vorstellen können, um was es bei "Chiron" geht. Chiron ist ein Planetoid, genauer gesagt (2060) Chiron, so benannt nach einem Zentauren. Schon als ich zum ersten mal von ihm hörte, 1980 als ich mir das "Planetenlexikon" kaufte, fiel er mir auf. Er war damals der fernste bekannte Asteroid, er zieht seine Umlaufbahn zwischen 1369 und 2820 Millionen km Entfernung seine Kreise, der Perihel ist innerhalb der Saturnbahn, das Aphel außerhalb des Perihels von Uranus, aber noch unterhalb der mittleren Uranusentfernung. Derzeit ist er in 2735 Millionen km Entfernung also nahe des Aphels.

Das war schon damals etwas besonderes und ist es heute noch. Heute kennen wir weitere Planetoiden jenseits des Hauptasteroidengürtels, doch befinden sich fast alle jenseits der Neptunbahn. Daneben gibt es noch den Asteroidengürtel und einige Familien von Asteroiden, die sich innerhalb der Umlaufbahn von Mars befinden wie die Apollo- und Amurasteroiden. Die äußersten der innersten Planetoiden sind die Trojaner die sich in der Entfernung von Jupiter befinden, aber 60 grad vor und nach dem Planeten, dort befinden sich stabile Lagrangepunkte.

Bis heute sind weniger als 10 Asteroiden bekannt, die zwischen Saturn und Uranus ihre Kreise ziehen. Chiron ist mit 218 km Größe der größte dieser Zentauren. Inzwischen hat man bei ihm eine Koma entdeckt, seitdem gilt er auch als der größte bekannte Komet, der wegen seiner großen Entfernung jedoch nie einen Schweif ausbilden wird. Er ist also ein durchaus interessantes Objekt und weitaus leichter erreichbar als die Transneptunobjekte.

Ich habe mich daher damit beschäftigt wie man zu Chiron kommt. Meine Hauptüberlegung gilt der Minimierung der Reisezeit und der Geschwindigkeitsänderungen im äußeren Sonnensystem.

Fall 1: Start zu Chiron + Bahnanpassung

In diesem einfachsten Fall startet man von der Erde aus in eine Ellipse mit einem Perihel in Erdentfernung (150 Millionen km) und einem Aphel in Chirons Entfernung (2820 Millionen km Entfernung).

Dieser Fall ist einfach berechenbar. Die Startgeschwindigkeit von der Erde (relativ zur Erdoberfläche ohne Berücksichtigung der Erdrotation) aus beträgt dann 15.566 m/s. Die Reisezeit  15 Jahre 234 Tage. In Chirons Entfernung angekommen, muss man das Perihel dann von 150 auf 1259 Millionen km Höhe anpassen. Das kostet weitere 3211 m/s. Eine Atlas 551 mit einer Star 48 Stufe, als leistungsfähigste momentan verfügbare Trägerrakete, kann nur 988 kg auf diese Geschwindigkeit befördern. Davon bleibt dann noch 356 kg übrig, wenn man die Geschwindigkeit erhöht. Von dem Gewicht muss man dann noch die Trockenmasse des Antriebssystems abziehen, doch da dieses bei allen anderen Sonden auch eingeschlossen ist habe ich dies unterlassen. Das ist also sowohl von dem Geschwindigkeitsaufwand wie auch der Reisedauer nicht so attraktiv. Aber es hat den Vorteil, dass man jederzeit starten kann. Man kann so sogar Chiron früher erreichen wenn er nicht im Aphel ist. Allerdings ist dann der Geschwindigkeitsaufwand höher um die Bahn anzugleichen. Chiron hat eine Umlaufszeit etwas über 50 Jahren. Das heißt in 25 Jahren ist er nahe des Perihels und kann so wesentlich schneller in weniger als 3 Jahren erreicht werden.

Fall 2: Ionentriebwerke im Perihel + Bahnanpassung

Diese Betrachtung unterscheidet sich von der ersten darin, dass man in der Sonnenumlaufbahn einen Ionenantrieb einsetzt so wies dies Dawn tat. Ich habe, da alle Missionen mit Ionentriebwerk die durchgeführt oder geplant sind, erst chemisch auf Fluchtgeschwindigkeit beschleunigt werden, habe ich dies auch in der Simulation vorgesehen. Eine Atlas 551 beschleunigt die Sonde auf 11,2 km/s das ist eine Bahn mit einem Aphel von 191,4 Millionen km Entfernung. Die Nutzlast beträgt dann noch 6300 kg. Ich fand bei gegebener Leistung des Solargenerators von 100 KW (1170 kg Masse bei den Leistungsdaten von Dawn) den optimalen spezifischen Impuls bei 23500  m/s. Bei Ionentriebwerken sind viele Parameter miteinander verquickt, so Schub, Impuls, Reisedauer und Höhe des Perihels voneinander abhängen. Je höher das Perihel liegt, dieses liegt desto besser ist dies, da man dann weniger chemischen Treibstoff braucht um die Bahn anzuheben. In diesem Falle wird das Perihel auf 171 Millionen km Höhe angehoben. das reduziert den Verbrauch an chemischem Treibstoff da nun die Differenz Geschwindigkeit nur noch 3072 m/s beträgt.

In diesem Falle beträgt die Flugdauer 13 Jahre 208 Tage,  das Restgewicht nach Verbrauch des Treibstoffs noch 4005 kg, wovon man aber 1700 kg für Solargenerator und Ionentriebwerke/Tanks abziehen muss. Nach Anpassung der Umlaufbahn lässt dies noch 869 kg für die Sonde übrig. Das ist dreimal als beim chemischen Antrieb alleine bei niedriger Reisedauer. Erstrebe ich zum Vergleich die gleiche Reisedauer von 5709 Tagen an, so erhöht sich die Masse leicht auf 4160 kg oder 996 kg nach dem Verbrauch des chemischen Treibstoffs. (weniger da dann das Perihel schon 201 Millionen km Entfernung liegt.

Fall 3: Ionentriebwerke im Perihel + Aphel + Bahnanpassung

Solar-elektrisch betriebene Ionentriebwerke machen nur Sinn, solange wie man genügend Strom hat. Er sinkt wenn sich die Sonde von der Sonne entfernt und irgendwann kann der antrieb nicht mehr betrieben werden. So ergaben meine Simulationen z.B. das oberhalb eines spezifischen Impulses von 30.000 die Sonden in einer Umlaufbahn die Geschwindigkeit im ersten Umlauf um die Sonne nicht schaffen und eine Extrarunde drehen müssen, was Zeit kostet. Doch man kann die Ionentriebwerke auch mit dem Strom aus den RTG betreiben. Das ist nicht viel, aber er steht immer zur Verfügung und wir reden hier von Reisezeiten über einem Jahrzehnt. Im folgenden bin ich von 300 Watt Leistung ausgegangen. Dieser Strom braucht die Sonde später für Instrumente und Sender. Schaltet man die Ionentriebwerke die mit dem Solargenerator angetrieben werden etwas früher ab, sodass nur eine Bahn von 2600 Millionen km Aphel erreicht wird und trennt dann Ionentriebwerke, Solarzellen und Tanks ab so kann die Sonde - nun nur noch 2328 kg schwer - einen zweiten, viel kleineren Antrieb der nur auf 300 W Leistung ausgelegt ist aktvieren.

Die Sonde erreicht dann nur mit den Ionentriebwerken die Bahn von Chiron. Eine Bahnanpassung ist nicht mehr nötig.  Ich errechne wenn das Modul bei 2016 Millionen km Entfernung aktiviert wird eine Bahn von 1244,3 x 2838 Millionen km. Bei Optimierung der Bahnparameter dürfte man so Chirons Bahn erreichen. Die Sonde verbraucht weitere 275 kg Treibstoff. Von der Bruttomasse von 2053 kg dürften etwa 100 kg für die Sonden-Systeme abgehen, sodass 1950 kg zu Chiron gelangen können. Der Wehmutstropfen: Es dauert so 19 Jahre 141 Tage Chiron zu erreichen.

Fall 3: Swing-By an Jupiter + Bahnanpassung

Die klassische Vorgehensweise ist eine Anpassung der Bahn über ein Swing-By Manöver. Es kommen prinzipiell drei Planeten dafür in Frage : Jupiter, Saturn und Uranus. Jupiters Bahn wird zwar nicht von Chiron gekreuzt, er kann jedoch die Bahn soweit anheben, dass man das Aphel von Chiron erreicht. Auch hier gibt es zahlreiche Möglichkeiten der Variation, ich habe eine Optimierung auf ein Aphel von 2820 Millionen km laufen lassen. Startet man mit 14.110 m/s von der Erde aus (Minimalgeschwindigkeit zu Jupiter), passiert Jupiter in 1,54 Millionen km Entfernung so erreicht man eine Bahn von 656,5 x 2820 Millionen km Entfernung. Es dauert 23 Jahre bis man das Aphel erreicht und dann muss man nur um 1177 m/s die Geschwindigkeit erhöhen. Von den 1871 kg die eine Atlas V 551 zu Jupiter entsendet bleiben dann noch 1.280 kg übrig.

Der Vorteil dieser Vorgehensweise ist, dass Jupiter auch die Bahnebene um 6,9 Grad drehen kann, das ist die Inklination von Chiron und es pro synodischer Periode von Chiron und Jupiter eine Start Möglichkeit gibt, das ist alle 15 Jahre 4 Monate der Fall.

Fall 4 : Swing-By an Saturn + Bahnanpassung

Chiron kreuzt Saturns Bahn. Er kann daher die Bahn relativ effizient anheben. Da man nur ein geringes Δv braucht um das Aphel von 2820 Millionen km zu erreichen, wenn Saturn schon 1427 Millionen km weit entfernt ist habe ich drei verschiedene Simulationen laufen lassen, alle gehen von einer Startgeschwindigkeit von 15133 m/s aus. Eine Atlas V 551 transportiert 1203 kg auf diese Geschwindigkeit. Bedingt durch die nahe Umlaufszeit von Saturn (knapp 30 Jahren) an der von Chiron wiederholt sich eine Startgelegenheit nur alle 72 Jahre.

Fall 5: Swing-By an Uranus

Uranus liegt je nach Abstand schon beim Aphel von Chiron, allerdings mit einer anderen Inklination. Er müsste nur das Perihel anheben. Es zeigte sich bei den Simulationen, das dies sehr heikel ist. Nur wenige Meter pro Sekunde mehr bei der Startgeschwindigkeit und man bekommt bei gegebenem Perihel ein Aphel das in 5000 oder 8000 Millionen km Entfernung liegt. Startet man mit 15.747 m/s von der Erde aus, so erreicht man eine Bahn von 1260 x 5560 Millionen km Entfernung nach einer Passage von Uranus in 150.845 km Entfernung. 1581 m/s müssen zum Abbau des Aphels kompensiert werden. Von den 909 kg die eine Atlas V 551 auf diese Geschwindigkeit transportiert, bleiben nur noch 550 kg übrig, dafür ist mit 14 Jahren 331 Tagen dies die zweitschnellste Bahn.

Uranus ist aber aus zwei anderen Gründen unattraktiv. Da er sich nahe des Aphels von Chiron befindet müsste, wenn man Chiron danach schnell erreichen will Chiron auch dort sein, da die Bahnen aber zueinander geneigt sind wird das nicht möglich sein. zudem ist dann nur ein Flug bei einer synodischen Periode von Chiron und Uranus möglich, das ist wegen der ähnlichen Umlaufszeiten nur alle 123 Jahre der Fall

Zusammenfassung

Hier alle durchgespielten Fälle als Tabelle:

Fall Startgewicht Sonde Trockengewicht (aber mit Treibstoffsubsystemen) Reisedauer Startgelegenheit
Elliptische Bahn 988 kg 356 kg 15 J 234 Tage Jedes Jahr
Ionentriebwerke im Perihel 6300 kg 869 kg 14 J 248 Tage Jedes Jahr
Ionentriebwerke im Perihel und Aphel 6300 kg 2053 kg 19 Jahre 141 Tage Jedes Jahr
Jupiterswingby 1871 kg 1280 kg ~23 Jahre Alle 15 Jahre
Saturnswingby (bester Fall) 1280 kg 894 kg 15 Jahre 32 Tage Alle 72 Jahre
Uranusswingby 909 kg 550 kg. 14 Jahre 331 Tage Alle 123 Jahre

Betrachtet man die Tabelle, so wird klar das es es einen offensichtlichen Sieger gibt: Die Nutzung eines kleinen Ionentriebwerks das den übrigen Strom der RTG nutzt um das Perihel anzuheben. Ein solches Triebwerk muss über 16 Jahre arbeiten, doch da die Sonde sowieso 19 Jahre unterwegs ist, hat man ja die Zeit.

Das für mich erstaunliche ist, ist dass man mit der heutigen Technik und Vorgehensweise, einer Atlas V, keiner SLS, man etwa 1950 kg netto zu Chiron bringen kann - das ist schon eine ordentliche Sonde, doppelt so schwer wie Voyager oder Galileo (ohne Treibstoffe). Die Mission wäre also durchführbar wenngleich wegen der langen Missionsdauer nicht so attraktiv.

2.5.2016: “Dragon 2 is designed to be able to land anywhere in the solar system”

Ach ja der gute Musk, er haut einen Witz nach dem nächsten raus. Der letzte ist der obige. Doch da es Leute gibt die nicht das technische Wissen haben den Witz als solchen zu erkennen, prüfen wir ihn mal auf die Wahrheit.

Da weder die NASA noch SpaceX ein bemanntes Programm jenseits des Erdorbits haben befasse ich mich nur mit unbemannten Missionen. Bemannt könnte man mit der Falcon 9 zwar den Mond erreichen - doch eine Falcon Heavy kann nicht so viel Nutzlast transportieren damit sie auch wieder zurückkommen. Die NASA selbst entwickelt mit der Orion aber ihr eigenes Raumschiff.

Auch bei unbemannten Missionen werden es SpaceX-Missionen sein, denn egal wie billig die Dragon ist, die NASA baut derzeit Raumsonden mit einer Trockenmasse von 0,5 bis 1 t und da eine 6,4 t schwere Dragon einzusetzen wäre ungefähr so als würde man mit dem Schwerlasttransporter den Einkauf erledigen der in zwei Einkaufstüten passt.

Also fangen wir mal an. Die Dragon 2.0 wiegt leer 6,0 t nach Spacex. Die Dragon 1 konnte maximal 1,2 t Treibstoff aufnehmen. Ich nehme an dass dies auch für die Dragon 2 zutrifft. Mehr Treibstoff erfordert weitere Tanks. Da diese wie die Super-Draco Triebwerke druckstabilisiert sind sind sie recht schwer. Nimmt man die Strukturfaktoren der EPS-Stufe so wiegen die Tanks für 1000 kg Triebstoff 100 kg inklusive des nötigen Druckgases und der Druckgasflasche. Von diesem Verhältnis gehe ich bei den folgenden Betrachtungen aus.

Merkur

Auch eine Falcon Heavy kann keine Dragon zu Merkur entsenden. Doch wie Messenger kann man sich dem Planeten über mehrere Vorbeiflüge nähern und zudem die Relativgeschwindigkeit verringern. Dazu muss man die Venus erreichen. Die Nutzlast zur Venus dürfte die gleiche wie zum Mars sein.  Das sind 13.600 kg. Das lässt dann noch 7.600 kg für Treibstoff und Tanks also 6900 kg für reinen Treibstoff übrig. Bei einem spezifischen Impuls von 3200 m/s (optimistisch angesetzt) kann man so die Geschwindigkeit um 2265 m/s abzubremsen. Die Kreisbahngeschwindigkeit in einem niedrigen Merkurorbit beträgt aber 3006 m/s und geringer wird die Geschwindigkeit nie sein. Auf dem Merkur kann eine Dragon 2 daher nicht landen.

Venus

Es steht außer Frage, dass die Dragon V2 auf der Venus landen kann, man braucht wegen der dicken Atmosphäre keinen Treibstoff zum Abbremsen. Die Nutzlast zur Venus liegt so hoch wie beim Mars, so hat man rund 7 t mehr Nutzlast als man benötigt. Doch das ist nicht das Problem. Die Kapsel wird kaum die 90 Bar Druck am Boden aushalten. So wird man sie während des Abstiegs belüften müssen also den Druck ausgleichen. So erwärmt sich aber auch das Innere der Kapsel und man würde Instrumente in einer zweiten, kleineren, voll isolierten Kapsel unterbringen, also eine Kapsel in der Kapsel. Der Nutzen dieser Kapsel ist aber gering. Sensoren sollten die äußere Atmosphäre vermessen. das Innere wird bei diesen Temperaturen ausgasen, sodass sich die Zusammensetzung vor allem bei den wichtigen Spurengasen unterscheidet. Ein Bildsensor muss am Fenster angebracht sein was schwer wird mit einer Kapsel in der Kapsel. Kurzum es macht wenig sinn. Ohne Druckausgleich wird die Kapsel aber schon in großer Höhe >50 km über dem Boden zerquetscht werden.

Mond

Die für Merkur errechneten 2265 m/s Abbremsvermögen können beim Mond knapp reichen. Die Fluchtgeschwindigkeit beträgt an der Oberfläche 2351 m/s. Dazu kommen noch Gravitationsverluste und eine Schwebephase. Eine Niedrigenergiebahn braucht zum Mond aber weniger Energie als zum Mars, sodass die Nutzlast in etwa zwischen GTO und Mars liegt. Mit der dadurch größeren Treibstoffzuladung dürfte eine Dragon komfortabel landen. Ich errechne 2940 m/s Korrekturvermögen für 17,8 t Startmasse, 7,1 t Trockenmasse und einem spezifischen Impuls von 3200 m/s.

Die Frage die sich nun bei allen Missionstypen stellt ist, wie sie nun arbeiten kann. Ich verweise hier mal auf meinen alten Blogeintrag. Das Problem ist das die Instrumente im inneren der Kapsel sind, aber auf die Oberfläche kommen müssen. Allenfalls Aufnahmen durch die Fenster sind unproblematisch. Für SpaceX dürfte dieses Szenario jedoch sehr interessant ein, denn der Mond ist in 4 Tagen zu erreichen. Eine weitestgehend unveränderte Dragon kann verwendet werden. Die Distanz ist so klein, das mit kleinen Datenraten ohne zusätzliche Ausrüstung kommuniziert werden und man kann damit angeben als erste private Firma (gibt es auch nicht private Firmen?) auf dem Mond gelandet zu sein.

Mars

Für den Mars gibt es die offizielle Nutzlastangabe von 13,6 t. Viel Treibstoff zum Landen braucht man nicht weil ein Fallschirm die Sonde auf moderate Geschwindigkeit abbremst, auch wenn die Restgeschwindigkeit zu hoch für eine weiche Landung hat. Der Phoenix hatte  67 kg Treibstoff bei einem Gesamtgewicht von 410 kg an Bord. Das sind knapp 20% der Masse und in etwa dieselbe Menge die auch ein ISS Transporter für Bahnanpassungen und Wiedereintritt braucht. Auf dem Mars ist eine Landung also problemlos möglich.

Über den Mars hinaus

Eine Dragon wiegt leer 6 t. Selbst wenn die interplanetare Dragon kein Mehrgewicht aufweist (z.B. für größere Solarpanels, Hochgewinnantenne, Instrumente) kann man sie auf maximal 13,5 km/s beschleunigen. Bei einer elliptischen Bahn reicht dies zu einem Aphel von 596 Millionen km Entfernung. Damit erreicht man nicht Jupiter, alle Körper jenseits von Jupiter sind also nicht erreichbar. Es reicht aber zu Asteroiden. Doch auf diesen muss man ja auch noch Landen, was ebenfalls Treibstoff kostet. Vor allem aber sind diese nicht so groß als dass sie die Bahn wirksam abbremsen können. Man muss daher das Perihel selbst anheben. Mit den rund 2200 m/s die man als Korrekturvermögen bei einer Transferbahn mit Nutzlast zum Mars hat ist so bei 210 Millionen km Entfernung Schluss, das ist gerade mal am Rande der Marsbahn. So bleiben als Asteroiden die Klasse der Apollo und Amurasteroiden, die erreichbar sind. Das sind die Asteroiden die die Erdbahn oder Marsbahn kreuzen.

Die sind aber zu klein, um auf ihnen landen zu können. Die meisten haben einen maximalen Durchmesser unter 10 km. Selbst wenn man die Super-Draco Triebwerke durch normale Draco mit 400 N Schub austauscht. Man braucht eigentlich gar keine Triebwerke um zu landen, sondern welche um die Sonde an der Oberfläche festzupressen bzw. andere Vorrichtungen um sie zu fixieren. Sowohl Phobos-Grunt wie auch Philae hatten keine Abstiegstriebwerke. Sie fielen auf die Oberfläche und sollten sich bei Kontakt mit Harpunen oder Andruck liefernden Triebwerken fixieren. Bei Philae klappte das nicht, bei Phobos Grund scheiterte die Sonde schon im Erdorbit. Ohne Umbauten wird eine Dragon auf keinem kleinen Himmelskörper landen können und wenn man bei Umbauteen ist dann ist es eben nicht mehr die Dragon 2. (Wenn ich damit anfange - wo ist da die grenze? ich interpretiere den Satz so, dass die Dragon 2 wie sie jetzt existiert überall landen kann, nicht ein Raumschiffe auf Basis der Dragon 2).

Fazit:

Überall im Sonnensystem - das ist bei Elon Musk gerade mal Venus, Erde, Mond, Mars. Ein kleines Sonnensystem. Vor allem würde ich sagen dass auch eine Orion oder Starliner auf den drei Himmelskörpern landen könnte. Ein Alleinstellungsmerkmal ist es also auch nicht.

Wie ich gerade beim Recherchieren feststelle, hat SpaceX wie von ihren Fanboys angekündigt die Daten aktualisiert - aber nicht so wie von denen gedacht. Nichts mit 70 t Nutzlast mit der Falcon Heavy, stattdessen wurde die der Falcon 9 angehoben. Zumindest ist es nun konsistent, denn vorher war es physikalisch unmöglich bei gleichen Voll/Leermassen und spezifischen Impulsen mit der 2,58-fachen Masse die 4,03-fache Nutzlast zu transportieren. Die 2,9 t zu Pluto sind aber so auch nicht möglich 2,9 t zu Jupiter (und dann über einen Swing-By zu Pluto) gehen. In jedem Falle ist es irrelevant, da ja keine Pluto-Mission geplant ist.

5.5.2016: 35 Jahre PC

Es ist noch nicht heute soweit, aber am 12. August feiert der IBM PC seinen 36-sten Geburtstag. Ich will schon heute mal an ihn erinnern

Fangen wir mal mit der technischen Beurteilung des IBM-PC im Vergleich zu anderen Rechnern dieser Zeit. Der IBM PC verwandte einen 8088 Prozessor, der mit 4,77 MHz getaktet war. Die Wahl dieses Prozessors zementierte die heutige Marktbedeutung von Intel. Er war schon damals nicht die erste Wahl. 1978 erschien der 8086. Als 1980 die Entwicklung begann war er schon zwei Jahre alt. Das wäre heute unvorstellbar. Es gab Diskussionen um die Wahl, IBM fragte unter anderem auch Microsoft. Offiziell fiel die Wahl auf den Prozessor, weil er am ausgereiftesten war, Der Motorola 68000 als direkter Konkurrent hatte bei Entwicklungsbeginn noch zahlreiche Kinderkrankheiten. Ein Grund dürfte auch sein, das Intel das Registermodell des 8080 übernommen hatte und durch den segmentierten Arbeitsspeicher war sogar eine automatische Übersetzung von 8080 Software möglich so konnte man schnell Software für den neuen Prozessor entwickeln. es gab sogar einige 1:1 Adaptionen in den ersten Jahren wie Wordstar 3.31 die einfach nur crosscompiliert wurden.

Der 8086 war nicht nur dem 68000 technisch unterlegen, (er war langsamer und der Speicher war segmentiert, der 68000 hatte auch 32 Bit Operationen) doch IBM entschloss sich sogar einen noch weniger leistungsfähigen Prozessor zu verwenden, den 8088. Der 1979 vorgestellte Chip war ein 8088 mit einem von 16 auf 8 Bit verkleinertem Adressbus. Alle Datentransfers sowohl von Code wie auch Arbeitsdaten dauerten so doppelt so lange, was die Geschwindigkeit um 40% absenkte. Obwohl der 8088 mit 8 MHz verfügbar war, nahm man bei IBM nur die 5 MHz Variante. Die wurde sogar mit nur 4,77 MHz getaktet. Das erlaubte es einen zweiten Oszillator einzusparen und aus einem Taktgeber sowohl den Takt für den NTSC-Taktgeber wie auch den Prozessor abzuleiten. Über die Wahl wurde lange Zeit spekuliert. Die offensichtlichste Erklärung war, dass IBM nicht sich selbst Konkurrenz machen wollte. Ich zweifele aber ein bisschen an der Deutung. Zum einen trennte den IBM PC von anderen "Entry Systems" die IBM damals im Angebot hatte doch einiges. So gab es bei diesen serienmäßig Diskettenlaufwerke mit 2,4 MByte Größe - zehnmal mehr als beim IBM PC. Zum anderen setzte IBM bisher nur Intel Prozessoren in ihren erschwinglichen Geräten ein. Man blieb eben einfach beim bewährten Lieferanten. Der niedrige Takt und die Wahl des 8088 reduzierten vor allem die Kosten für das Mainboard. Man konnte so die Bausteine die für Intels 8-Bit Linie verfügbar waren einsetzen und die kamen auch mit dem niedrigen Takt zurecht. Die neuen 16 Bit Bausteine waren deutlich teurer. Trotzdem war der Rechner gegenüber den damals eingeführten 8-Bit Rechnern schneller und er konnte auch ausgebaut werden. Die 8-Bit Rechner konnten nur maximal 64 KByte Speicher adressieren, der IBM PC 544 KByte.

Der Arbeitsspeicher betrug 64 KByte, ursprünglich waren es sogar nur 16 KByte, doch damit wäre der Computer schon bei Markteinführung hinter anderen verfügbaren Rechnern, selbst den 8-Bit Rechnern unterlegen gewesen. So wurden nur wenige mit 16 KByte verkauft. Wenn man die Speicherchips der Hauptplatine austauschte stieg der Speicher auf 64 KByte. Da man so den Speicher zweimal zahlte wurden die meisten mit 64 KByte verkauft. Mittels einer Zusatzplatine konnte der Speicher auf 256 KByte erweitert werden. 

Was den IBM PC von allen heutigen PCs unterscheidet, ist das der nackte Computer praktisch keine Anschlüsse hatte. Er hatte nur einen Anschluss für die Tastatur und einen Kassettenrecorder. Das letzte zeigte das IBM eigentlich nicht so richtig wusste was sie mit dem Rechner machen sollten. Viele Personalcomputer der frühen Generation und auch später Heimcomputer hatten einen Anschluss für den Kassettenrecorder. Darauf wurden Daten und Programme gespeichert. Doch für einen geschäftlichen Einsatz und dafür war der IBM PC vom Preis ausgelegt waren Diskettenlaufwerke der Standard. 1978 wurden sie nach und nach in den Rechnern eingeführt und inzwischen erschienen neue Rechner nur mit Diskettenlaufwerken. Für Diskettenlaufwerke brauchte man einen Diskettenkontroller den man in einen der 5 Steckplätze steckte. Zwei Laufwerke konnte man ins Gehäuse einbauen jedes mit 160 KByte Kapazität.

Wo man die Kompetenz von IBM erkannte waren Bildschirm und Tastatur. Die Tastatur hatte einen festen Anschlag mit akustischer Rückkopplung, verglichen mit heutigen Tastaturen war der Anschlag hart und laut. Doch damals störte das niemand. Computer waren selten und das Geräusch galt als Beweis dass man fleißig arbeitete und der Anschlag wurde als überlegen gegenüber anderen Rechnern eingestuft. IBM hatte auch von Anfang an internationale Belegungen im Angebot. Andere Rechner hatten eine QWERTY-Tastatur selbst wenn die Rechner in Deutschland verkauft wurden.

Der Bildschirm von 11,5 Zoll Größe stellte in nachleuchtendem Grün 80 Zeichen mit 25 Zeilen dar. Die Matrix betrug 14 x 9 Punkte - auch das war damals überlegen, die anderen damals verfügbaren 8-Brit Rechner hatten nur eine 8x8 oder manche Rechner sogar nur 5x 7 Matrix. Doch um ihn anzuschließen, brauchte man einen Monochromgrafikadapter, der auch den Druckeranschluss beinhaltete. Er stellte die Buchstaben dar und hatte auch den Bildschirmspeicher. Alternativ gab es einen Farbgrafikadapter der Grafik mit bis zu 320 x 200 Punkten in 4 Farben darstellen konnte. Das war nicht besser als die Grafik eines Heimcomputers kostete jedoch extra. Für Nicht-US Käufer kam dann noch der RGB Monitor hinzu, US-Besitzer konnten einen Fernseher anschließen, da es neben dem RGB einen NTSC-Anschluss gab, den sogar auf der Hauptplatine.

Das 40 KByte große ROM beinhaltete das BIOS und ein "Kasettenbasic", einen Basic Interpreter wie er bei vielen Rechnern dieser Zeit eingebaut wurde. Dieses BASIC konnte aber nur auf Kassette speichern. Für einen geschäftlichen Betrieb brauchte man noch ein Diskettenbetriebssystem. PC-DOS bzw. MS-DOS war in der ersten Version nur eine Kopie des 8-Bit CP/Ms inklusive der Einschränkungen wie Programmgrößen von 64 KByte oder nur 64 Dateien pro Diskette. Es gab für das Speichern auf Diskette dann noch weitere BASIC-Versionen.

Die Basisversion die man an den Fernseher anschloss, mit Tastatur, 16 KByte Speicher kostete 1565 Dollar. Damit konnte man aber nicht arbeiten. Die kleinste Konfiguration die eine Arbeit ermöglichte, hatte 64 KByte Speicher einen Diskettenkontroller, ein Diskettenlaufwerk und einen Monochrombildschirm und einem Nadeldrucker und kostete 3004 Dollar. Mit einem zweiten Diskettenlaufwerk und einem Farbmonitor war man bei 4500 Dollar. In Deutschland kostete die kleinste Version, die erst einen Jahr nach der US-Version erschien 8500 DM. Inflationsbereinigt müsste man die Preise sogar mit 1,3 multiplizieren um auf den heutigen Preis in Euro zu kommen, das wären also 11.000 Euro für die Basisversion.

Heute bekommt man für 300 Euro einen einfachen PC, der anders als der IBM-PC auch alle Anschlüsse hat und nur in Rechenleistung einem teureren unterlegen ist. Legt man das doppelte hin so bekommt man einen guten PC, mit doppelt so viel Speicher und mehrfacher Geschwindigkeit. Ein Monitor addiert 120 Euro, ein Drucker 100 Euro. Die Abstände im Preis sind also gleich geblieben, wenn er auch absolut gesehen viel billiger ist.

Allgemein ist heute der Aufpreis für schnellere Geräte geringer geworden. Damals kostete ein schnellerer Rechner deutlich mehr. Das ist insofern verwunderlich, weil sich die Preise sehr unterschiedlich entwickelt haben. Im Allgemeinen sind die Preise stark gesunken, aber doch sehr unterschiedlich. Festplattenlaufwerke gab es schon damals, doch sie waren so teuer das ein Laufwerk mehr kostete als der IBM-PC. Um sie anzuschließen musste man eine Erweiterungseinheit kaufen. Sie sind am stärksten im Preis gefallen. Die speicherpreise sind relativ moderat gefallen. Den stärksten Preisverfall gab es bei den Schaltkreisen für Anschlüsse. Sie machten den IBM PC erst so teuer. Heute sind alle Schnittstellen OnBoard, doch beim IBM PC musste man für jede Anschlussmöglichkeit eine eigene Adapterkarte kaufen. Addiert man deren Preise so war das Mainboard das teuerste am Rechner. Relativ moderat waren die Preise für Drucker, Bildschirm und Diskettenlaufwerke, alle in der Region um 1000 DM, also einem Achtel des Preises der Basiskonfiguration. Gemessen daran ist der heutige Anteil höher am Systempreis.

Zwei Dinge sind sogar absolut teurer geworden: Die Software. MS-DOS kostete 75 Dollar, heute kostet Windows 10 neu 279 Euro als Professional Edition. Das gleiche gilt für den Prozessor, der damals etwa 100 Dollar kostete. Die billigsten Prozessoren kosten heute 40 Euro von Intel, man kann aber auch 200 bis 300 Euro für einen ausgeben. So hat sich die Gewinnmarge verschoben: den meisten Profit machen heute Microsoft und Intel, nicht wie früher der Hersteller des PC.

Der IBM PC wurde zum Erfolg, er zeigte relativ deutlich welchen Einfluss eine etablierte Marke hat. Der IBM-PC machte auch Computer salonfähig, davon profitieren auch andere Hersteller wie Apple. Für viele Käufer war ein IBM PC einfach zu teuer. Sie wichen auf andere Rechner aus. Den stärksten Gegenwind hatten Firmen die auch 8086-Rechner herstellten, denn diese lagen in der Preisregion wie der IBM PC. Auch wenn viele viel besser ausgestattet waren, wie mit einem echten 8086-Prozessor, mehr Speicher, hochauflösender Grafik oder mehr Platz auf den Diskettenlaufwerken - sie waren eben nicht von IBM und im Zweifel kaufte man von IBM, auch weil die Anschaffer nichts von Technik verstanden. Sie verschwanden innerhalb von 1-2 Jahren vom Markt. Der Effekt ist heute vielleicht noch ansatzweise mit dem Renommee von Apple vergleichbar. Auch hier legen Leute viel Geld für ein Applegerät auf den Tisch selbst wenn es technisch gleich gute billigere Alternativen gibt und bei der Vorstellung eines neuen iPhone gibts Schlangen vor den Läden.

8.5.2016: Ich halte es immer noch für eine Schnapsidee

Seit Jahren spukt etwas durch die Nachrichten, von verschiedenen Firmen und Weltraum Behörden postuliert, aber nie umgesetzt: Die Erweiterung der Lebensdauer von geostationären Kommunikationssatelliten. Die wird heute begrenzt von dem Treibstoff. Knapp die Hälfte der Satellitenmasse macht schon der Treibstoff aus, den man braucht um die Umlaufbahn ausgehend von dem GTO zu erreichen, dann braucht man je nach Position am Äquator noch 40 bis 75 m/s pro Jahr um die Position zu halten. Das sind bei 10 bis 15 Jahren Lebensdauer dann auch nochmals 400 bis 1050 m/s Geschwindigkeitsänderung. Bei Arianespace gibt es ja auch ein paar Details zu den Satelliten unter anderem auch Start und Trockenmasse und manche bestehen wirklich zu zwei Dritteln aus Treibstoff, wobei die Tanks bei dem Drucktankprinzip und das Druckgas Helium noch weiteres Gewicht addieren sodass der Satellit ohne Treibstoffsysteme vielleicht ein Viertel der Startmasse wiegt.

Diese Tatsache und die, dass es lange Zeit so war, dass eine neue Generation deutlich mehr Transponder als die alte hatte machten bisher es unattraktiv einen Satelliten zu befüllen oder anderswie die Lage zu regeln, wenn der interne Treibstoffvorrat ausgeht. Nun scheint sich das zu ändern. Wahrscheinlich weil bei Kommunikationssatelliten nun neue Satelliten nicht mehr so viel mehr Leistung als die letzte Generation haben. Es gibt schließlich Grenzen beim Startgewicht, der maximal möglichen Leistung mit Solarzellenauslegern, die man auch nicht beliebig groß machen kann und inzwischen nutzen viele Satelliten Transponder in drei Frequenzbändern, weil eines alleine nicht ausreichen würde.

Nun soll das Tochterunternehmen Vivisat von ATK/Orbital erstmals auch eine Lageregelung eines Satelliten durchführen. Ich will mal meine Bemerkung zu dem Vorhaben machen. Die Methode die angewandt ist, ist die einfachste und konventionellste die es gibt: ein "normaler" Satellit, das MEV wird chemisch in den GTO gebracht, hebt seine Bahn in den GEO an und koppelt dann an den Zielsatelliten an. Dazu nutzt er die lange Düse des Apogäumsmotors, dessen konische form leitet einen Haken in die Brennkammer wo er sich am Düsenenghals verhaken kann. Danach übernimmt der Satellit die gesamte Lageregelung des Zielsatelliten.

Viel ist über das Vehikel nicht bekannt. Orbital ATK hat einen Kunden (Intelsat) gefunden der 65 Millionen Dollar zahlt, vier weitere soll es geben. Es soll auf dem ATK Bus 700 basieren. Leider kennt man dessen Daten nicht, doch die Ziffer 700 steht nicht für das Trockengewicht, denn schon der A200 Bus wiegt 536 kg. Immerhin man kann vergleichen. der Bus liefert 3.800 kg Watt Leistung und kann bis zu 1700 kg Nutzlast tragen. Das dV beträgt bis zu 3500 m/s. Das hohe dV verringert sich, wenn man berücksichtigt das davon schon 1500 bis 1800 m/s abgehen wenn das MEV im Orbit angekommen ist. Dann teilen sich dV-Budget MEV und Nutzlast. Der Bus ist für 5 bis 15 Jahre ausgelegt.

Vergleicht man das mit den Daten eines bekannten Buses, der Geostar 1500 Plattform. Der wiegt 800 bis 1500 kg trocken, je nach Treibstoffzuladung, liefert bis zu 5.550 Watt bei einer Nutzlast von maximal 500 kg und einer Startmasse von 3.325 kg. Nimmt man die elektrische Leistung als Maß für die Größe des Busses so dürfte das MEV vielleicht 2.300 kg beim Start wiegen und im GEO noch etwa 400 bis 500 kg Treibstoff für die Mission haben, das reicht bei einem im Orbit 2 t schweren Satelliten, 1.000 kg Eigengewicht ohne treibstoff und 50 m/s Lageregelungsbedarf pro Jahr für etwa 8-9 Jahre.

Das grundlegende Problem bei dem Konzept ist, dass man ein Vehikel, das in etwa so viel wie ein Kommunikationssatellit kostet, wenn auch ohne funktechnische Nutzlast etwas billiger, chemisch in den Zielorbit bringt. Orbital/ATK könnte, wenn die Masse von 2,3 t hinkommt, das mit einer Antares schaffen, für die die Firma ja auch eine Oberstufe entwickelt. Alleine der Start kostet so 85 bis 90 Millionen Dollar, mindestens das gleiche kostet sicher das Gefährt. Da stellt sich die Frage des Nutzens, die 65 Millionen Dollar die Intel zahlt reichen nicht aus, eventuell ist das eine Prämie pro Jahr, doch das halte ich für sehr hoch, gemessen an den Investitionen in einen neuen Kommunikationssatelliten. Die liegen je nach Größe bei 200 bis 400 Millionen Dollar inklusive Start und Versicherung. Bei 10 bis 15 Jahren Betriebszeit sind das selbst bei der größeren Summe nur etwa 40 Millionen Dollar Abschreibung pro Jahr bei 10 Jahren Betriebsdauer. Der einzige, vielleicht aber auch wichtigste Vorteil für einen Betreiber ist, das der Satellit im Orbit länger betrieben werden kann. Das höchste Risiko gibt es beim Start und Inbetriebnahme. Versichert wird meist nur das erste Betriebsjahr. Danach ist das Ausfallrisiko gering. Andererseits nimmt auch die Leistung der Paneele ab und man wird Transponder abschalten müssen, was den Gewinn schmälert.

Viel intelligenter wäre es nicht chemisch, sondern mit einem Ionentriebwerk die Bahn zu erreichen. Die 3,8 kW verfügbare Leistung sind nicht viel, doch bei einem geringen spezifischen Impuls von 18.000 m/s ist man nach 1 Jahr im GEO-Orbit, ausgehend von einer 400 km Kreisbahn. Dort verblieben noch 1.782 kg von 2.300 kg Startmasse (chemisch: 1428 m/s bei einem dV von 1500 m/s). Zieht man die Systeme des Ionentriebwerks ab so sind das noch 1650 kg Restmasse, deutlich mehr als beim chemischen Vorgehen mit 1168 kg Vergleichsmasse (mit Resttriebstoff aber ohne Treibstoffsysteme) Vor allem aber braucht man auch im Orbit weniger Treibstoff für die Korrektur, sodass bei gleicher Startmasse ein rein elektrisch angetriebenes Vehikel mit einem sehr niedrigen spezifischen Impuls sehr viel schneller den GEO erreichen könnte - nur 153 Tagen.

Der Vorteil für Orbital wäre das eine Antares drei dieser Vehikel auf einmal starten könnte da sie in eine niedrige Umlaufbahn gelangen, was die Startkosten deutlich verringert. An und für sich ist die Technologie aber eine Schnapsidee. Die logische Vorgehensweise wäre es auf Ionentriebwerke zu setzen - zuerst nur für die Lageregelung im Geo-Orbit, dann als zweite Stufe da sind wir gerade dran beim Transfer in den Geoorbit und später einmal komplett vom Leo in den Geo. Ob es dazu jemals kommt - ich bin skeptisch. Auf dem Papier sind die Vorteile offensichtlich. Doch zum einen ist die Branche sehr konservativ was sich auch beim zögerlichen Einsatz von Ionentriebwerken zeigt. Dann gibt es die Strahlenbelastung im Van Allen Gürtel die immer genannt wird - ich glaube sie wird übertrieben. Man kann Elektronik abschirmen und die Abnahme der Solarzellenleistung wird nicht so drastisch sein, wenn sowieso für eine schnellere Passage man mehr Leistung hat als heute üblich. Vor allem aber haben wir dann ein Trägerproblem. Nehmen wir an, man würde "All-Eletric" Satelliten einsetzen die vom Leo in den GEO geraten. Dann wiegen die nur 50% eines konventionellen Satelliten, werden aber im LEO ausgesetzt wo die Nutzlast einer Trägerrakete zwei bis dreimal höher ist.  Ein typischer 4,5 t Satellit von denen Ariane 5 z.B. zwei transportiert würde nur noch 2,5 t wiegen und in einen Orbit gelangen in den Ariane 5 21 t transportiert - der Träger ist also viermal zu leistungsfähig, von der Ariane 5 Klasse rutscht die Nutzlast plötzlich auf das Niveau der Vega ab. Nicht ganz so extrem aber ähnlich problematisch ist es auch bei Proton und Falcon. Eine Proton könnte 8 anstatt einem Satelliten transportieren, eine Falcon neun anstatt einem.

Vom GTO in den GEO - mit ionenantrieb

Seit letztem Jahr gibt es die "All Electric Propulsion" Satelliten, die mit Ionenantrieb ihre Bahn anheben. Doch sie gelangen noch immer zuerst in einen klassischen GTO. Ich will in diesem Artikel diese mal bahnmechanisch untersuchen. Als Beispiel habe ich den ABS 3A genommen mit folgenden Daten:

Bild 1Die Sendeleistung entspricht einer Gesamtleistung von 5,2 kW für die Nutzlast, in der Mitte der Leistung der Boeing 702 SP Plattform, genauso wie die Startmasse von 1954 kg. Ich denke 4,5 kW wurden für das Triebwerk verwendet. Der ABS-3A wurde in eine SSGTO Bahn geschossen, doch für didaktische Zwecke will ich zuerst annehmen, das es eine GTO-Bahn war. Abbildung 1 zeigt was passiert wenn das Triebwerk dauernd arbeitet, mit Ausnahme der Passage der Nachseite.

Die Endbahn bei der ich die Simulation stoppen lies war das Überschreiten des Perihels in 36000 km Höhe. Das Aphel liegt dann in 107.800 km Höhe. Die Restmasse beträgt dann noch 1845 kg und die Simulationsdauer dann 227 Tage. Mit der Vorgabebahn komme ich auf eine Simulationsdauer von 184 Tagen, in Übereinstimmung mit den realen Daten. Das Apogäum liegt dann schon in 140.000 km Höhe.

So wird man es nicht machen. Wenn man das Triebwerk nur oberhalb von 36000 km Höhe betriebt also des späteren Apogäums so erreicht man nur 90000 km Maximalhöhe bei einem geringeren Treibstoffverbrauch und einer Endmasse von 1873 kg. Die Simulationsdauer beträgt 234 Tage bei einer reinen Betriebsdauer von 174 Tagen. In der Praxis wird man die einfache Strategie, die ich bisher anschlug nicht machen, denn es ist nicht von Vorteil das Apogäum erst anzuheben und dann abzusenken. Ich habe das simuliert und ab 32.000 km soll der Schub in der Bahnrichtung wirken (Anheben des Perigäums), darunter dagegen (Absenken des Apogäums), man erhält Abbildung 2, eine 26600 x 40300 km Bahn, die man leichter zirkularisieren kann. Die Simulationsdauer beträgt 260 Tage, die Endmasse 1833 kg.

Doch die GTO-Bahn ist eigentlich nicht gut geeignet für Ionentriebwerke. Durch die elliptische Bahn hebt man sowohl Perigäum wie Apogäum an, außer man beschränkt den Betrieb nur auf das Perigäum, was aber viel zu lange dauert es dauert dann Jahre den GEO zu erreichen. Viel besser wäre es schon anfangs eine nicht so hohe Bahn einzuschlagen. Doch das hat seinen Preis, wie die folgende Tabelle für einen spezifischen Impuls von 3500 s zeigt:

Startgeschwindigkeit Simulationszeit Gewicht Zielbahn Perihel Zielbahn Aphel
8.500,0 1 J 94 d 1.740,6 35.535,4 43.831,0
8.600,0 1 J 83 d 1.745,5 35.513,8 45.233,4
8.700,0 1 J 72 d 1.750,6 35.520,4 46.706,2
8.800,0 1 J 61 d 1.755,9 35.513,5 48.210,8
8.900,0 1 J 50 d 1.761,1 35.532,4 50.145,2
9.000,0 1 J 38 d 1.766,6 35.522,9 52.017,5
9.100,0 1 J 26 d 1.772,1 35.523,8 54.254,6
9.200,0 1 J 13 d 1.778,0 35.502,7 56.278,4
9.300,0 1 J 1 d 1.783,9 35.510,3 59.118,8
9.400,0 352 d 1.790,2 35.510,0 61.594,7
9.500,0 338 d 1.796,6 35.531,5 64.803,5
9.600,0 324 d 1.803,1 35.504,4 68.730,7
9.700,0 309 d 1.810,0 35.501,2 72.672,7
9.800,0 294 d 1.817,2 35.515,7 77.330,0
9.900,0 278 d 1.824,5 35.531,9 83.428,0
10.000,0 261 d 1.832,4 35.539,8 90.276,6
10.100,0 244 d 1.840,5 35.532,3 98.906,5
10.200,0 224 d 1.849,6 35.531,2 108.160,2
Bild 2Das Apogäum liegt um so tiefer je niedriger die Ausgangsbahn wird. Man braucht dann etwas mehr Treibstoff, das ist klar. Doch der Hauptnachteil steht in Spalte 2 - startet man mit nur 8500 m/s anstatt den 10200 m/s für eine Standard-GTO-Bahn, so dauert der Transfer doppelt so lange. Die offensichtlichste Lösung ist es einen niedrigeren spezifischen Impuls anzustreben. Das beherrschen auch viele Ionentriebwerke. 3500 s, rund 34200 m/s ist für das geringe dV von rund 1900 m/s bei einer Standard-GTO Bahn viel zu hoch. Geht man auf 14230 m/s herunter, so steigt der Treibstoffverbrauch etwas, doch die Reisezeit sinkt drastisch wie dieselbe Tabelle bei einem spezifischen Impuls von nur 14230 m/s zeigt:

Startgeschwindigkeit Simulationszeit Gewicht Zielbahn Perihel Zielbahn Aphel
8.500,0 176 d 1.479,6 35.607,7 43.657,9
8.600,0 173 d 1.489,0 35.589,0 45.561,6
8.700,0 169 d 1.499,5 35.536,7 47.053,5
8.800,0 164 d 1.511,1 35.505,2 48.039,7
8.900,0 160 d 1.522,1 35.534,2 49.780,5
9.000,0 156 d 1.533,5 35.556,6 51.618,4
9.100,0 152 d 1.544,7 35.621,5 54.057,8
9.200,0 147 d 1.557,5 35.504,6 56.011,2
9.300,0 143 d 1.569,4 35.503,4 59.204,4
9.400,0 138 d 1.582,8 35.600,6 61.568,7
9.500,0 132 d 1.596,7 35.500,2 64.621,0
9.600,0 127 d 1.610,4 35.531,2 68.725,0
9.700,0 122 d 1.624,5 35.580,0 73.568,7
9.800,0 116 d 1.639,9 35.577,5 78.521,1
9.900,0 110 d 1.657,0 35.568,6 83.350,1
10.000,0 104 d 1.674,0 35.511,1 90.481,9
10.100,0 97 d 1.693,3 35.506,0 97.156,9
10.200,0 90 d 1.711,0 35.601,3 110.031,5

Die Reisezeit beträgt nur noch 90 anstatt 224 Tage, also eine Reduktion um den Faktor 2,5. Der Treibstoffverbrauch dagegen nur gering: Von 105 auf 246 kg, das ist bei 1954 kg Startmasse noch hinnehmbar. Vor allem kommt man bei geringeren Startgeschwindigkeiten wie 8500 m/s in die Zeitspanne von einem halben Jahr den man auch heute bei einem Transfer des ABS 3A hat. Da die niedrigere Startgeschwindigkeit eine deutliche Zunahme der Startmasse entspricht wird so der höhere Treibstoffverbrauch mehr las kompensiert.

Bahnen mit annähernd gleichem Perigäum wie Apogäum bekommt man leider nur wenn die Ausgangsbahn kreisförmig ist. Startet man mit 7740 m/s aus einer 300m km hohen Bahn so braucht dieser Satellit 1 Jahr 67 Tage um die GEO-Bahn zu erreichen. Er wiegt dann noch 1716 kg. Die Lösung ist offensichtlich, aber simpel:

Entweder man nimmt Ionentriebwerke mit einem niedrigeren spezifischen Impuls (schnellere Transferzeit, leicht kompensiert durch die höhere Nutzlast in eine LEO-Bahn, die den höheren Treibstoffverbrauch mehr als ausgleicht). Das XIPS ist definitiv für diesen Satelliten das falsche Triebwerk. es wurde auch für Dawn entwickelt, die Raumsonde muss aber ihre Bahn um 11 km/s ändern und nicht nur um 2 km/s. Die niedrigen spezifischen Impulse bekommt man mit klassischen Plasmatriebwerken die Wasserstoff ionisieren, aber nicht mit den Ionentriebwerken die Xenongas einsetzen und durch ein elektrisches Feld beschleunigen, diese haben deutlich höhere spezifische Impulse, die hier nicht von Vorteil sind. Immerhin auf etwa 2500 s sollten sie herabregelbar sein.

oder man stockt die elektrische Leistung auf, dann macht auch eine Degradation durch den Van Allen Gürtel nichts aus und der Satellit hat zum Ende der Betriebszeit mehr Leistung. Anders als beim spezifischen Impuls ist der Einfluss der elektrischen Leistung weitestgehend linear. Nur weitestgehend, weil natürlich die zusätzlichen Paneele den Satelliten schwerer machen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99