Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 329: 6.6.2013 - 9.6.2013

6.6.2013: Sub-, Supersynchrone Orbits und die Proton

Übergangsorbit SES 6Am Montag startete eine Proton einen Satelliten in einen supersynchronen Orbit. Da ich mal vermute, das die meisten nichts mit dem Begriff anfangen können, denke ich ist es an der Zeit ihn zu erklären. Die super- und subsynchronen Orbits gab es sehr lange Zeit nur bei der Atlas. Es sind Übergangsbahnen zum GTO Orbit. In der Theorie ist die optimalste Strategie einen GTO Orbit zu erreichen, wenn man möglichst nahe der Erde in einer möglichst kurzen Zeit stark beschleunigt und eine Übergangsbahn erreicht, der erdfernster Punkt auf der Höhe des GEO ist. Dort nach 5 Stunden angekommen zirkularisiert eine Zündung die Bahn und baut die Inklination zum Äquator ab. Auch diese sollte möglichst kurz sein.

Wenn eine Stufe sehr lange arbeitet (das gilt auch für die Apogäumsmotoren von Satelliten die meist nur 400 bis 500 N Schub haben) ist es günstiger die einzelnen Manöver in mehrere Teilmanöver zu splitten um Gravitationsverluste zu verringern. Das ist bei der langen Brennzeit der Breeze M von 2.400 s der Fall. Daher hat diese 3-4 Zündungen um den GTO Orbit zu erreichen, der auch meist etwas anders ist als bei Ariane üblich. Umgekehrt startete die Luftwaffe mit der Titan 3+4 sehr viele Satelliten "off perigree", also mit einem Perigäum nahe des Erdbodens. Das war möglich weil die Transtage Oberstufe gleich die Zirkularisierung durchführte.

Ein Subsynchroner GTO ist ist nun ein GTO dessen Apogäum unterhalt des GTO (also kleiner als 36000 km). Ein supersynchroner ist einer dessen Apogäums höher als GTO ist. (bis zu 70.000 km sind üblich). Beide haben ihre Ursache in der marktbeherrschenden Stellung von Ariane in den Neunzigern. Ein Kunde musste bei der Atlas immer einen festen Preis zahlen. Arianespace versuchte dagegen, Satelliten so zu kombinieren, dass die Nutzlast optimal ausgelastet wurde. Was machte nun der Kunde wenn sein Satellit etwas zu leicht oder etwas zu schwer für die Atlas war? War die Nutzlast zu schwer, so reichte es nicht für das Apogäum in der Höhe des GEO. In diesem Falle musste der Satellit mit seinen eigenem Treibstoff zuerst den Orbit anheben und erst dann konnte er ihn zirkularisieren. Das ist offensichtlich eine Lösung, sie reduziert aber die Lebensdauer des Satelliten. Doch welchen Sinn macht der supersynchrone Orbit? Nun klar wird dies bei den beiden Formeln die für Impulsmanöver gelten.

v =√ (GM × ((2 ÷ x)-(1 ÷ Halbachse))

GM ist das Produkt aus Gravitationskonstante und Erdmasse

Halbachse ist der Halbe Durchmesser des ganzen Orbits (Apogäum + Perigäum / 2) berechnet vom Erdmittelpunkt aus

x ist der momentane Abstand,

Bei einem Standard GTO (186 x 35887 km) hat der Satellit bei x = 35887 km eine Geschwindigkeit von 1592,4 m/s, die Kreisbahngeschwindigkeit beträgt 3071,1 m/s. Der Satellit muss also um 1478,7 m/s schneller werden. Bei einem supersynchronen Orbit von 186 x 70000 km sind es an dieser Stelle 3739 m/s also eine geringere Differenz. Doch da es auch um den Bahnvektor geht, ist dies nicht direkt zu vergleichen. Bedeutender ist eine zweie Gleichung, denn der Satellit muss auch die Inklination angleichen. Dies sind beim Start vom CSG aus nur 5,2 Grad, wobei Ariane durch Anpassung der Aufstiegsbahn sogar auf 2 Grad erniedrigen kann und vom Cape Kennedy sind es 28,8 Grad (reduzierbar auf etwa 27 Grad). Beim Start vom Baikonur aus sind es dagegen 51,63 Grad, reduzierbar auf etwa 50 Grad. (siehe unten)

Eine Inklinationsänderung ist berechenbar nach:

vi = 2× sin(Winkel ÷ 2) × v

v ist die momentane Geschwindigkeit. Aufgrund der Multiplikation mit v ist es günstiger diese im Apogäum bei der niedrigsten Geschwindigkeit durchzuführen. typische vi für GTO Orbits sind:

Weltraumbahnhof Inklination vi
CSG 5,2 Grad 140,6 m/s
CCAF 28,8 Grad 742,2 m/s
Kosmodrom Baikonur 51,6 Grad 1299,1 m/s

Dies wird zur zeitgleich durchgeführten Anhebung des Apogäums durchgeführt, sodass die Geschwindigkeiten sich vektoriell addieren. Daher ist die Gesamtänderung nicht ganz so dramatisch. Die Gesamtgeschwindigkeit beträgt bei Standard GTO 1500 m/s beim Start vom CSG aus, 1800 m/s beim Start vom CCAF aus und 2100 m/s beim Start von Baikonur aus.

Von Bedeutung ist nun, dass bei einem supersynchronen Orbit die Geschwindigkeit im Apogäum geringer ist. Im obigen Fall mit 70.000 km Höhe sind es nur 909 m/s. Das bedeutet es wird weniger Treibstoff benötigt um die Inklination abzubauen. Zeitgleich hebt man das Perigäum auf 35587 m/s an. Dazu benötigt man eine Geschwindigkeitsänderung um 1019 m/s. In der Summe sind es dann 1290 m/s die benötigt werden (Baikonur, 51,5 Grad Anfangsorbit). Man hat dann eine Bahn von 35887 x 70000 km. Diese muss man dann noch mit einer weiteren Zündung in 35887 km Höhe zirkularisieren. Dazu braucht man weitere 414 m/s. In der Summe sind es dann 1704 m/s, also weniger als die 2100 m/s bei einem normalen GTO, aber mehr als die 1500 m/s die man bei einem Start vom CSG aus braucht.

Arianespace hat eine solche Marktdominanz, dass ILS mit der Breeze M normalerweise "energiekompatible" Orbits anstrebt. Sprich: sie entlassen die Nutzlast nicht in einem 51,5 Grad geneigten GTO Orbit, da hier der Satellit 600 m/s mehr benötigt um die hohe Inklination abzubauen, was seine Lebensdauer sehr stark beschränken würde. Die ideale Lösung ist der obige supersynchrone Orbit. Nur dauert die Mission dann sehr lange. Die letzte Zündung im Apogäum erfolgt erst 9 Stunden nach dem Start. Bisher entließ die Breeze M die Nutzlast in Bahnen mit einem höheren Apogäum und einer erniedrigten, aber noch vorhandenen Inklination. Beim Start von Anik G1 waren es folgende Manöver

Manöver Perigäum Apogäum Inklination
Parkorbit nach erster Zündung 173 km 173 km 51,5 Grad
nach zweiter Zündung 270 km 5000 km 50,3 Grad
nach dritter Zündung 425 km 35799 km 49,1 Grad
nach vierter Zündung 9138 km 35786 km 13,4 Grad

Greoundtrack Anik G1 StartDie dritte Zündung hebt das Perigäum an und senkt die Inklination ab. Es wird beides kombiniert, weil es energetisch ungünstiger ist die Manöver nacheinander durchzuführen. Es sind auch vier Manöver, obwohl zwei reichen würden (bei leichten Nutzlasten sind es sogar bis zu fünf), weil die lange Brennzeit der Breeze M sonst nicht nur Perigäum, sondern auch Apogäum anheben würde. Man erkennt das schon bei dem Perigäum das während der ersten Brennperiode um 100 km und bei der zweiten um 150 km anwuchs. Ein zweiter Punkt ist, dass die Breeze M der Proton aus der kleineren Breeze KM der Rockot entwickelt wurde. Dazu hat man einfach um die bisherige Stufe einen ringförmigen Zusatztank herumgebaut und dieser wird nach der dritten Zündung abgeworfen wird. Während des Betriebs ist das nicht möglich um eine Kollision zu vermeiden. Daher müssen die Manöver so aufgeteilt werden, dass so viele Zündungen nötig sind.

Das um den GTO zu erreichen zwei Zündungen nötig sind, hat ebenfalls mit dem Start im Norden zu tun. Energetisch günstig ist es das Aufweiten der Ellipse über dem Äquator durchzuführen, weil so automatisch die Inklination absinkt. Zu diesem Zeitpunkt ist die Stufe aber noch über China. Auch alle folgenden Zündungen finden aus demselben Grund über dem Äquator statt. Man sieht dies am Groundtrack, wobei durch die langen Brennzeiten und hohe Geschwindigkeit im Apogäum schon 30 Grad vorher damit begonnen wird.

Lediglich beim Start in Äquatornähe kommt man mit nur einer Zündung aus. Schon beim Start von Cape Canaveral sind es zwei, wobei hier die Freiflugphase mit einer Viertelstunde aber deutlich kürzer ist. Also Folge kommt Ariane 5 mit einer Oberstufe aus, die nur einmal gezündet werden kann. Alle anderen Träger haben wiederzündbare Stufen.

Bei der Proton war es so, dass solange diese Block DM-2 bzw. Varianten dessen einsetzte (Ergänzung "Block DM" im Namen) eine Variation des "normalen" GTO einsetzte: Block DM brachte zuerst die Kombination Oberstufe + Satellit in einen geostationären Übergangsorbit (200 x 36000 km). Am Apogäum angekommen, nach 5-6 Stunden, hob eine dritte Zündung das Perigäum an und baute einen Teil der Inklination ab. Diese einfachere Flugbahn war möglich, weil zum einen Block DM leichter als die Breeze M war. Damit konnte schon die Kombination Block DM und Satellit einen niedrigen Erdorbit erreichen. Die erste Zündung der Breeze M, die dazu dient überhaupt erst einen Parkorbit zu erreichen konnte so entfallen. Zudem war das Triebwerk schubkräftiger. Es hatte den vierfachen Schub des Triebwerks der Breeze M. Dadurch waren die Gravitationsverluste geringer und es reichte eine kurze Zündung über 110 s Dauer im Apogäum.

Ist nun die Variante mit dem supersynchronen Orbit günstiger? Da die Breeze M die Satelliten je nach Gewicht in unterschiedlichen Orbits aussetzt hier die Daten von zwei fast gleich scheren Nutzlasten, einmal in supersynchronen GTO und einmal das normale Flugregime. Die dritte Orbitänderung erfolgt in zwei kurz hintereinander folgenden Zündungen, da dazwischen der äußere Treibstofftank abgeworfen wird.

Parameter SES 4 SES 6
Startdatum: 15.2.2012 3.6.2013
Gewicht Satellit: 6.180 kg 6.100 kg^
Orbit nach erster Zündung: 173 x 173 km x 51,5 Grad 175 x 175 km x 51,5 Grad
erste Brennzeit 277 s 267 s
Orbit nach zweiter Zündung 270 x 5000 km x 50,3 Grad 295 x 6000 km x 51 Grad
zweite Brenndauer 1130 s 1174 s
Orbit nach dritter Zündung: 430 x 35807 km x 49,1 Grad 475 x 65.044 km x 50,5 Grad
dritte Brenndauer 663 s + 378 s 566 s + 505 s
endgültiger Orbit 3714 x 35786 km x 24,6 Grad 4482 x 65000 km x 26,3 Grad
vierte Brenndauer 350 s 214 s
Differenz zo GEO (ohne grtavitationsverluste) 1421 m/s 1316,6 m/s

Der Umweg über den supersynchronen Orbit ist also um rund 100 m/s günstiger. Allerdings muss man die 80 kg geringere Nutzlast berücksichtigen, die sich bei den bekannten Leistungsdaten der Breeze M in 30 m/s höherer Geschwindigkeit niederschlagen. Somit beträgt der Gewinn, wenn man annimmt, dass die Treibstoffvorräte vollständig ausgenutzt werden, noch 70 m/s, was knapp eineinhalb Jahre Betriebszeit bei einem geostationären Satelliten entspricht. Ist dies nicht gegeben, dass heißt wird immer derselbe Standardorbit angestrebt, unabhängig von dem Gewicht der Nutzlast so entspricht dies einer um 2 Jahre verlängerten Lebensdauer.

Ein weiterer Aspekt, der bisher nicht erwähnt wurde ist zumindest bei dem Vorgehen der Proton M mit der Breeze M Oberstufe die gesamte Flugdauer. Da beim supersynchronen Orbit der zweite Zwischenorbit eine Halbachse von 39.130 km hat, dauert diese Mission sehr viel länger als die bisherige Vorgehensweise.

Bei dem Bahnregime, das die Proton fährt (Endorbit 4482 x 65000 km, 26,3 Grad) stellt sich übrigens die Frage, wie der GEO Orbit erreicht werden soll, da das Perigäum höher als bei einem Standard GTO ist, das Apogäum aber auch. Es gibt zwei Möglichkeiten:

oder

Die Inklinationsänderung wird immer im Apogäum erfolgen, da dann die Bahngeschwindigkeit am geringsten ist und gemäß obiger Formel mit dieser multipliziert wird.

  Option 1 Option 2
Erste Bahnänderung 1089,9 m/s 341,9 m/s
Zweite Bahnänderung 372,9 m/s 1574,1 m/s
Summe: 1462,8 m/s 1916 m/s

Andere Manöver sind noch ungünstiger , wie man leicht durch Überlegung herausfinden kann. Knack und Angelpunkt ist die Inklinationsänderung die bei niedrigstmöglicher Geschwindigkeit stattfinden sollte. Bei der ersten Option führt man diese in 65.000 km Entfernung durch, daher benötigt man deutlich weniger Geschwindigkeit. Dies ist auch der tiefere Sinn eines supersynchronen Orbits.

7.6.2013: Umweg über den Mond

Am 24.12.1997 startete AsiaSat 3 mit einer Proton K. Geplant war das die Oberstufe Block DM-3 zuerst den Satelliten in einen geostationären Übergangsorbit befördert. Am Apogäum angekommen sollte Block DM-3 erneut zünden und die Inklination abbauen und den erdnächsten Punkt anheben. Das kombinierte Manöver hat den Sinn die Geschwindigkeit die nötig ist, um den kreisförmigen GEO Orbit in rund 36000 km Höhe zu erreichen zu reduzieren. Starts von Baikonur aus haben den Makel, dass dazu der Satellit 2.100 m/s aufbringen muss. Würde er mit einer Ariane 5 oder einer Zenit 3 SL starten, so wären es nur 1.500 m/s. Da die Betreiber von Kommunikationssatelliten sich möglichst viele Optionen beim Start offen lassen wollen (falls ein Träger für längere Zeit "gegrounded" ist, wie dies z.B. mit der Ariane 5E nach dem Jungfernflug, aber auch der Proton nach zahlreichen Fehlstarts der Fall war, ganz zu schweigen von  Sealaunch die einige Jahre unter "Chapter 11" des US-Insolvenzrechtes kamen und keine Starts durchführten), ist dies von Nachteil. Die Proton gleicht diesen Nachteil aus, indem die Oberstufe mindestens eine weitere Zündung durchführt um die Geschwindigkeit die der Satellit aufbringen muss auf den gleichen Wert wie bei einem Start vom CSG aus zu reduzieren.

Block DM-3 brannte zuerst 589 s lang und platzierte den Satelliten in einem geostationären Übergangsorbit. In 36000 km Höhe angekommen, nach 6 Stunden, 18 Minuten und 42 s später sollte Block DM-3 erneut zünden und während 110 s die Bahn anheben. Nach nur einer Sekunde schaltete das Triebwerk ab, und Asiasat 3 strandete in einem Orbit von 203 x 36.008 km mit einer Inklination von 51,37 Grad.

Für den Betreiber Asiasat war der Fall damit erledigt, der Satellit wurde als Versicherungsfall gemeldet. Die Versicherung zahlte 200 Millionen Dollar an Asiasat. Am 21.3.1999 wurde als Ersatz Asiasat 3S gestartet, erneut mit einer Proton. Der Hersteller HGS (Hughes Global System) erwarb von der Versicherung den Satellit und begann zuerst das Perigäum um 150 km anzuheben (auf 365 km) um Zeit zu gewinnen. Ingenieure hatten den Plan Asiasat zum Mond zu senden und die Gravitation des Mondes zu nutzen, das Perigäum anzuheben und die zu hohe Inklination anzuheben.

Der Mond kann wie jeder andere Himmelskörper für "Gravity Assists" genutzt werden. Japan hatte dies dreimal bei seinen Raumsonden schon gemacht. Obwohl der Mond eher klein ist kann er je nach Anfluggeometrie die Geschwindigkeit um bis zu 800-1.000 m/s ändern. Damit kann man sowohl den erdnächsten Punkt anheben wie auch die Bahnneigung verändern. Schon die erste Raumsonde, die am Mond vorbeizog zeigte dies: Lunik 3 flog in 6200 km auf der Mondrückseite vorbei. Der Mond lenkte die Sonde wieder zur Erde zurück und veränderte die Bahn in eine von 46.500 × 470.000 km Erdentfernung, hob den erdnächsten Punkt also um 46.000 km an und den erdfernsten um 80.000 km.

Bahn von Arabsat 3ADas Problem war, das Asisat ein Telekommunikationssatellit war. Er hatte zwar viele Transponder zum Übertragen von Signalen an Bord, doch diese waren hier Nutzlast. Das Telemetriesystem, das Daten übertrug und der Kommandoempfänger warem nicht ausgelegt worden aus zehnmal höherer Distanz als dem GEO zu operieren. Es war keine präzise Bahnverfolgung möglich. Um trotzdem den Mond als Ziel nutzen zu können wollte man daher zuerst eine selten genutzte Bahn einschlagen. Die meisten Raumsonden und auch die Apolloraumschiffe flogen auf einer "freien Rückkehrbahn", eine Bahn die in 3-4 Tagen zum Mond führt. Stattdessen erarbeitete man eine Bahn mit "Schwacher, Stabiler Bindung". Sie führt zuerst auf eine Fluchtbahn, die bis 1,5 Millionen km Entfernung führt. Eine Midkurskorrektur führt dann zu einem Kurs wo der Satellit den Mond nah passiert oder sogar unter geringem Treibstoffverbrauch eingefangen werden könnte. Das Problem war diese Spitzenentfernung. Über diese Distanz könnte man nicht mit HGS-1, wie der Satellit nach Übernahme von HGS nun genannt wurde, kommunizieren. Viel mehr als 400.000 km waren nicht möglich. Das führte zu einer schnelleren, aber mehr Treibstoff kostenden Route die eine Freiflugbahn beinhaltete, wegen der Unsicherheiten in der Positionsbestimmung aber nicht nahe an den Mond heranführen würden. Damit ist der Geschwindigkeitsgewinn beschränkt, aber eine Abweichung von 100 km bewirkt keine große Änderung der Bahn.

Als der Satellit im endgültigen Orbit angekommen war, wurden erst die Solarpanels entfaltet. Das klappte nur bei einem der beiden Paneele. Als Ursache wurde der Temperaturstress angegeben - während der Reise wurden die Panels länger erhitzt und abgekühlt als diese bei einem GTO der Fall gewesen wäre, zudem war eine Entfaltung wenige Stunden nach dem Start geplant, keine Reise über 6 Monate.

Panamsat kaufte 1999 den Satelliten, benannte ihn in PAS22 um und betrieb ihn 3 Jahre lang. Im Juli 2002 wurde er in einen Friedhofsorbit verschoben.

Die Frage ist nun, ob dieses Phänomen sich energetisch lohnt. Asiasat 3 hätte 600 m/s mehr aufbringen müssen um den GEO Orbit aus dem Übergangsorbit aus zu erreichen. Den Treibstoff hätte der Satellit gehabt. Er wog  leer 1674 kg. Bei den üblichen Antrieben eines Satelliten erlaubt diese Treibstoffmenge eine Geschwindigkeitsänderung von rund 2230 m/s. Dann wären noch 130 m/s verblieben, was für einen Betrieb über 3 Jahre ausgereicht hätte. Nominell sollte der Treibstoff für 15 Jahre reichen. So war der Satellit ein Jahr länger in Betrieb, aber auch so hat das Manöver um den Mond mehr Triebstoff gekostet als eine Standard-GTO Bahn.

Arabsat Orbit 2Nun ist dies berechenbar. Die erste Bahn von HGS-1 war eine 365 x 36.012 km Bahn. Hier hat der Satellit im Perigäum eine Geschwindigkeit von 10.100 m/s. Die Bahn führte die Sonde 6.200 km über die erdabgewandte Seite des Mondes. Unter der Annahme einer mittleren Mondentfernung von 384.400 km vom Erdmittelpunkt ist dies 386.000 km von der Erdoberfläche entfernt. Dafür benötigt HGS-1 eine Geschwindigkeitsänderung von 682 m/s.

Die erreichte Bahn war eine von 488.000 x 36000 km x 8 Grad. Um das Apogäum abzusenken benötigt der Satellit im GEO Orbit weitere 1094 m/s. Dazu kommt noch die Anpassung der Inklination, die 500 m/s erfordert. Vektoriell addiert sind dies 1208 m/s. Zusammen mit den schon aufgewandten 682 m/s sind es 1890 m/s, also eine Ersparnis von 210 m/s gegenüber der Anhebung des GTO Orbits, aber 420 m/s mehr als geplant. Das reduziert die Lebensdauer auf rund 5 Jahre.

Der Gewinn ist aber nicht sehr groß. So wurde das Manöver für Orion 3 im Jahr 2000, 2006 für ArabSat 4A und 2008 für AMC-14 erwogen, aber nicht ausgeführt. Dabei gab es nicht nur technische Gründe sondern auch Probleme zwischen Satellitenherstellern und Betreibern. (bei AMC-14). Orion 3 wurde mit einer Delta III gestartet. Arabsat 4A und AMC-14 mit einer Proton.

Selbst wenn man den Idealfall hat (die zweite Bahn wird nicht ausgeweitet wie bei Arabsat 3A und verbleibt in 386000 km Höhe, der Mond reduziert die Inklination auf 0, was nur möglich ist wenn er die Äquatorebene kreuzt (die Mondbahn ist 5,145 Grad zum Äquator geneigt) beträgt der gesamte Geschwindigkeitsbedarf 1735 m/s, was immer noch 235 m/s über dem für einen 0 Grad GTO liegt. Für ein Station Keeping braucht ein geostationärer Satellit je nach Quelle 45 bis 55 m/s pro Jahr, das senkt die Lebensdauer also um rund 5 Jahre ab. Es ist übrigens auch denkbar die Inklination im Apogäum ohne Mond abzusenken. Hätte Arabsat 3A in 488.000 km Entfernung die inklination abgesenkt so hätte er nur 49,4 m/s gebraucht. Zusammen mit dem Absenken des Apogäums wären dies dann 1831 m/s Gesamtgeschwindigkeitsänderung

Auf der anderen Seite ist es energetisch günstiger als ein GTO von Baikonur aus, da allerdings keine Oberstufe über diese Zeit (im Falle von Asiasat 3 erstreckte sich das Manöver über mehr als einen Monat) in Betrieb bleiben kann und der Satellit alle Manöver durchführen muss ist dieser Vorteil nur theoretischer Natur.

8.6.2013: Die Reihenfolge von Orbitänderungen

Eine Frage die bei Erdorbitmissionen nicht auftritt, aber bei planetaren Mission ist die Reihenfolge von Orbitänderungen. Nehmen wir die Raumsonde Phobos Grunt:

Da die Raumsonden mit Überschussgeschwindigkeit in den Einflussbereich des Planeten kommen müssen sie zuerst abbremsen. Dies ist am effektivsten wenn man sich nahe des Planeten befindet und legt den planetennächsten Punkt fest. Bei Phobos Grunt waren dies 800 km über der Oberfläche des Mars. der planetenfernste Punkt liegt weit außen. Bei Phobos Grunt lag er nach den Planungen in 79.000 km Entfernung. Das Ziel, Phobos, umrundet den Mars in rund 6.000 km Entfernung. Es gibt nun zwei Möglichkeiten um vom 800 x 79.000 km Orbit in einen 6000 km hohen kreisförmigen zu gelangen:

Option 1

Option 2

Die Inklination soll bei diesem Beispiel keine Rolle spielen. Zum einen kann man diese durch den Eintrittswinkel festlegen, zum anderen würde ein kurzes Manöver in 79.000 km Entfernung leicht jede Inklination möglich machen, da Phobos Grunt dann nur noch 224 m/s schnell ist.

Manöver Option 1 Option 2
Erste Zündung 650,8 m/s 103 m/s
Zweite Zündung 457,3 m/s 725,6 m/s
Summe 1108,1 m/s 828,6 m/s

Obwohl in beiden Fällen derselbe Orbit erreicht wird ist die Geschwindigkeit nicht die gleiche. Es verwundert daher nicht, dass Phobos Grunt die zweite Option nutzte. Noch etwas komplizierter wird es wenn man eine hypothetische Mission andenkt - eine Raumsonde die wie Phobos Grunt Bodenproben zur Erde zurückbringt, aber diesmal auch von Deimos. Nun gibt es zwei Möglichkeiten: Erst Besuchen von Deimos und dann von Phobos und erst Besuchen von Phobos und dann Deimos. Was hier noch zu berücksichtigen ist, ist der hyperbolische Exzess. Die Raumsonde muss relativ zur Planetenumlaufbahn 2,7 km/s abbauen. Da dies aber im Schwerefeld des Planeten erfolgt ist die aufzubringende Geschwindigkeit abhängig von der Geschwindigkeit der Kreisbahn von der dies aus erfolgt.

Hier die Geschwindigkeitsänderungen für die beiden Optionen (Option 1: zuerst Phobos, dann Deimos, Option 2: zuerst Deimos, dann Phobos). Anfangsbahn ist wie oben eine 800 x 79.000 km Bahn.

Manöver Option 1 Option 2
Transferbahn → erster Mond 828,6 m/s 610,6 m/s
erster Mond → zweiter Mond 744 m/s 744 m/s
Verlasen Marssystem → Rückkehr zur Erde 1956,2 m/s 1915,4 m/s
Summe 3528,8 m/s 3270 m/s

Auch hier ist die zweite Option günstiger, also sich von außen nach Innen sich zu nähern. Im Allgemeinen gilt: kleine Geschwindigkeitsänderungen im Apogäum heben das Perigäum viel stärker an, als gleich hohe Geschwindigkeitsänderungen im Perigäum Veränderungen des Apogäums nach sich ziehen. Das sieht man auch bei dem Standard GTO-Orbit bei der Erde die Differenz zu der 200 km Kreisbahn beträgt im Perigäum 2428 m/s, die Differenz zum GEO-Orbit im Apogäum aber nur 1489 m/s.

Links:

http://carlkop.home.xs4all.nl/asiasat.html

http://www.thespacereview.com/article/2295/1

9.6.2013: Auf zu 10 GHz

Erinnert sich noch jemand an den Pentium 4? Als er vorgestellt wurde, betonte Intel, dass sein gesamtes Design auf hohe Taktfrequenzen ausgelegt sei. Er hatte eine enorm lange Pipeline, sprich er dekodierte einen Befehl in vielen Takten. er hatte nur wenige Funktionseinheiten, diese sollten aber die Mikro-Ops schnell abarbeiten. Und zuerst sah auch alles gut aus. In zwei Jahren wurde der Takt von 1,2 auf 3,2 GHz gesteigert. Intel präsentierte auf Präsentationen auch Prototypen die mit 5 und 7 GHz liefen (zumindest während der Vorführung). Doch bei 3,8 GHz war Schluss. Was den Träumen von vielen Gigahertz ein Ende bereitete, waren die Leckströme, die bei jedem Umschalten frei wurden und die exponentiell mit der Taktfrequenz anstiegen. Bei einer TDP (Thermal Design Power) von 125 Watt war Schluss. Um die dabei entstehende Abwärme abzuführen, brauchte man sehr große Kühler. Größere waren mechanisch (Zug an dem meist senkrecht aufgehängten Motherboard) wie auch vom verfügbaren Platz nicht in einem normalen PC Gehäuse unterzubringen.

Intel lernte dazu. Das nächste CPU Design basierte auf einem Notebookprozessor. 2005 kam dann eine Kehrtwende: anstatt immer höhere Takte, sollten die PC schneller werden indem es mehr Kerne, also im Prinzip mehr Prozessoren pro CPU gab. Der Takt sollte dagegen bei 2-3 GHz stehen bleiben. Anders als bei mehreren Funktionseinheiten, die es schon vorher gab, sind mehrere Kerne dem Betriebssystem als einzelne Prozessoren bekannt, was es erlaubt, die Prozesse besser aufzuteilen. Alle zwei Jahre, so versprach Intel, würde sich die Zahl der Kerne pro Prozessor verdoppeln. Doch wir alle wissen, dass es nicht so kam. wäre Intels Vorhersage eingetroffen, so gäbe es 2007 die ersten 4-Kerner, 2009 dann 8-Kerner, 2011 16-Kerner und dieses Jahr müssten es 32 Kerne pro Prozessor sein. In der Realität dominieren im PC-Segment zwei und Vierkerner. Bei Serverprozessoren gibt es auch 8 Kerne.

Der Grund ist, das zwei Kerne als Vorteil gesehen wurde, der "Abschied von der Sanduhr". ein Programm konnte den PC nicht mehr lahmlegen. Doch meistens ist es auch nur ein Programm. Browser können zwar pro Tab einen Prozess anlegen, doch wie lange ist dieser aktiv um Daten zu verarbeiten? Selbst Gamer, eine Kundschaft die früher Unsummen für leicht übertaktete "Exteme-Editions" von Intels Prozessoren zahlte, machten nicht mit. Für Gamer-PC werden nach wie vor Prozessoren mit zwei Kernen empfohlen, weil diese etwas höhere Taktfrequenzen haben und Spiele selten mehr als zwei Kerne effektiv nutzen.

Intel versuchte, nachdem mehr Kerne nicht im Markt ankamen, die Geschwindigkeit anders zu steigern - durch größere Caches, neue Befehle, wie die AVX Erweiterung mit Vektoroperationen oder die Möglichkeit wenn nur ein oder zwei Prozesse viel Leistung brauchen diese mit einer höheren Taktfrequenz zu betreiben, während die anderen Kerne schlafen.

Der Verkaufserfolg des Xeon Phi, einer Steckkarte die als "Coprozessor" beworben wird und aus einer CPU mit 60 P54C Kernen besteht (das ist das Design des Pentium) scheint Intel zu einer erneuten Kehrtwende veranlasst zu haben. Beginnend ab 2014 wird es Rechner mit sehr vielen CPU Kernen, reinen Fleißkommabefehlen, ohne die Erweiterungen SSE, SSE2,SSE3 und AVX geben (die Befehle wurden in Software kaum genutzt, weil z.B. AVX weder bei AMD Prozessoren und bei den Intel Prozessoren nur bei der zweiten Generation der ICore i5 und I7 vorhanden sind. Kein Hersteller entwickelt ein Programm, das nicht auf einem Teil der Kunden läuft und so massive Supportprobleme verursacht). Anders als die bisherigen Konzepte teilen sie sich keine Caches, jeder hat einen eigenen Cache und einen eigenen Taktgenerator.

Da inzwischen Prozessoren mit einer TDP von nur 15 bis 35 Watt verfügbar sind, kann so der Takt gesteigert werden, denn ein weiterer Punkt kam noch hinzu. Bei einer Chipgröße von typisch etwa 10-15 mm Kantenlänge, begrenzt die Die-Größe die Taktfrequenz. elektrische Signale legen in Leitungen maximal 200.000 km/s zurück. Liegen auf dem Weg Transistoren, die erst schalten müssen, so sinkt die Geschwindigkeit noch weiter ab. In 4 GHz legt so ein Signal maximal 50 mm zurück. Da die Leitungen selten gerade verlaufen und noch die Schaltzeit der Transistoren hinzukommt ist dies heute die maximale Taktfrequenz eines Chips. Alle Transistoren eines Chips müssen im selben Takt arbeiten, sonst wären die Ausgangssignale nicht mehr deterministisch, eines könnte von einem Takt stammen, das andere schon vom nächsten wenn das Signal erst durch den ganzen Chip bis zur Funktionseinheit laufen musste.

4 Kerne mit eigenem Cache und eigenem Taktgenerator haben nur noch Abmessungen von 5-7,5 mm pro Kern, sind also halb so groß. Daher ist bei vier Kernen die entkoppelt sind, eine doppelt so hohe Taktfrequenz möglich. Dies bleibt so, die Taktfrequenz steigt mit der Quadratwurzel der Kernzahl. 8 Kerne erlauben den Faktor 2,8, 16 schon den Fraktur 4. Allerdings ist ein solcher Chip dann nicht um diesen Faktor schneller, denn die Caches sind nun klein (nur 8 kB für Daten- und Code) und es gibt nur eine ALU und FPU pro Chip, die x86 Code und keine µ-Ops verarbeitet.

Intel plant zwei Linien Die erste "Home" genannt hat maximal 32 Kerne (maximale Taktfrequenz 19 GHz), die zweite Edition "Premium" anfangs 64, später sollen es bis zu 256 sein. Die Namensgebung lehnt sich nicht per Zufall an Windows an. Windows 8 unterstützt in den Home Versionen maximal 32 Kerne, in den Professional und Ultimate Versionen maximal 256 Kerne..

Trotzdem bleibt das Problem, das Software heute weder 32, noch 256 Kerne ausnutzt, warum bietet Intel daher nicht kleinere CPU's mit 4 Kernen an die auch diese hohe Taktrate erreichen? Nun das liegt daran, dass noch Prozessor und Motherboard separat verkauft werden. Auf den kleinen Die für nur wenige Kerne können dann nicht mehr alle Anschlüsse verbunden werden. Lötet man die Chips direkt in die Platine ein, so sind die Signalpins viel enger setzbar und dann wäre dies möglich. Intel hat dies auch vor, denn die hochgetakteten Prozessoren wurden nicht für den PC und Servermarkt entworfen, wo Intel schon einen Marktanteil von 90% hat. Sie sollen in den kleineren Versionen (2-8 Kerne) in Smartphones und Tabletts eingesetzt werden. Hier konnte Intel den stromsparenden ARM Prozessoren bisher nichts gleichwertiges entgegensetzen. Die neuen Prozessoren sind stromsparender weil jeder P54C Kern nur 3,3 Millionen Transistoren, ein QuadCore i7 dagegen 730-774 Millionen. Dadurch sinkt der Stromverbrauch ab, auch wenn der durch den höheren Takt wieder ansteigt ist er bei wenigen CPU's immer noch geringer als bei den Mobil CPU's die derzeit von Intel verfügbar sind.

Auf jeden Fall gibt's endlich mal wider eine Innovation die einen PC Neukauf nötig macht - vielleicht auch ein Grund für die neue CPU Linie. Es dürfte auch den Absatz von Windows 8 fördern, denn bei Windows 7 ist bei maximal 16 Cores Schluss.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99