Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 417: 6.3.2015 - 18.3.2015

6.3.2015: Meine Vorstellung einer Falcon 9 Oberstufe

Elendsoft hat ja gestern in seinem Beitrag eine Adaption bestehender LOX-LH"-Oberstufen für die Falcon 9 Das ist logisch, das ist sinnvoll, das ist etwas was jeder vernünftige Mensch in Betracht ziehen würde, weil es die Nutzlast glatt verdoppelt. Doch es verletzt die ersten beiden Gebote auf die jeder SpaceX-ler schwören muss:

1: Du sollst keine anderen Firmen neben SpaceX haben

2: SpaceX hat immer recht und immer die beste Lösung

Also hier an dieser Stelle eine konkurrierende Lösung, die nur SpaceX-Technologie einsetzt. Aber zuerst einmal: Warum sollte SpaceX eine dritte Stufe einsetzen? Nun weil man durch Pressemitteilungen die Physik nicht überzeugen kann. Mutter Matur ist ein garstiges Weib und diskutiert nicht. Eine zweistufige Rakete mit mittelenergetischen Treibstoffen ist eine gute Lösung für erdnahe Orbits. Doch für höhere Orbits nimmt die Nutzlast stark ab, weil die letzte Stufe die höhere Geschwindigkeit fast alleine aufbringen muss und ihre Trockenmasse dann einen immer größeren Anteil an der Nutzlast ausmacht. Die genauen Daten der SpaceX-Raketen sind nicht bekannt, aber die Treibstoffmasse ist anhand der SpaceX-Daten berechenbar, das sich aus spezifischem Impuls und Schub die verbrauchte Treibstoffmenge pro Sekunde berechnen lässt, über Multiplikation mit der Brennzeit die Gesamtmenge an Treibstoff und im Vergleich mit bestehenden Stufen dann die Trockenmasse, bei 801 kN Schub, 375 s Brennzeit und einem spezifischen Impuls von 340 s kommt man so auf 88.300 kg Treibstoff, das sind bei üblichen Maßstäben etwa 3700 kg Trockenmasse. Diese ist also bei einem GTO-Start schon fast so groß wie die Nutzlast. (Da das Merlin 1D im Schub reduzierbar ist, kann sie auch etwas niedriger sein, doch reduziert wird der Schub wahrscheinlich nur am Schluss, sodass die Differenz nicht groß ist).

Schon der Übergang vom Standard-GTO in den Ariane-5-Kompatiblen SSGTO reduziert die Nutzlast von 4,85 auf 3,5 t, obwohl die Geschwindigkeitsdifferenz nur bei 350 m/s liegt (bei einem Apogäum in 80.000 km Höhe). Sinnvoll für GTO-Missionen die einen guten Teil der Starts ausmachen, ist daher eine weitere Stufe.

Die Triebwerke sind leicht gefunden. Das Merlin 1D ist zu schwer und zu schubstark. Aber SpaceX hat ja noch die Super-Draco Triebwerke für die weiche Landung der Dragon in der Entwicklung. Mit einem Schub von 68,17 kN haben sie den richtigen Schub. Sie sind rein druckgefördert (Brennkammerdruck 6,9 Bar), was zu einem niedrigen spezifischen Impuls auf Meereshöhe von 235 s führt, doch im Vakuum müssten sie mit einer entsprechend großen Expansionsdüse 3100 m/s erreichen. Eine Unsicherheit ist, dass sie als LAS für kurze Betriebszeiten ausgelegt sind, so beträgt der Treibstoff-Vorrat nur 1368 kg. Ich will auf Basis dieses Triebwerks drei Szenarien Skizziert:

No-Risc Szenario

Dieses Szenario umfasst eine Stufe die nur das einsetzt was absolut sicher möglich ist. Die Treibstoffmenge ist hierbei auf 1.368 kg beschränkt. Das erlaubt nur eine kleine Stufe die 350 kg trocken wiegt. Dazu kommen 500 kg für die Elektronik, Batterien, Sender der Oberstufe, die aber dort dann entfallen. Das Leergewicht wird durch das Triebwerk dominiert, das bei diesem Schub etwa 150 kg wiegen wird.

Little-Risc Szenario

Eigentlich sollte ein Triebwerk mehr als die 1368 kg Treibstoff verbrauchen können. Die 1368 kg entsprechen nur 62 s Brennzeit. Wenn ich davon ausgehe, dass die bisherige Falcon 9 unverändert bleibt, dann kann die Stufe mit Nutzlast so schwer werden wie die maximale Nutzlast einer Falcon 9. Die ´beträgt 13,15 t. Rechnet man 6 t für die GTO-Nutzlast so bleiben 7,15 t für die Stufe übrig, das entspricht dann in etwa einer Leermasse von 900 kg. Dazu kommen wieder die 500 kg Vehicle Equipment Bay der Oberstufe

Normales Szenario

Natürlich wäre eine noch größere Oberstufe sinnvoll. Hinsichtlich Startgewicht kann man bei in etwa gleich großen spezifischen Impulsen durch eine einfache Faustregel die Größe festlegen: Masse der zweiten Stufe/Masse der Dritten Stufe ~ Masse der Dritten Stufe / Masse der Nutzlast. Bei 6 t Nutzlast kommt man so auf etwa 23 t für die Oberstufe, Das Problem ist nur: das sind 10 t mehr als bisher die Rakete transportieren musste. Das erhöht die Gravitationsverluste beim Aufstieg und vor allem hat die Falcon 9 keinen großen Schubüberschuss. Sie wiegt 503 t und einen Startschub von 5850 kN, startet also mit 11,5 m/s, wobei man die Erdbeschleunigung schon 9,81 m/s wieder abziehen muss. Dann bleiben magere 1,7 m/s. Da machen selbst 10 t mehr Masse einiges aus. Die einfachste Lösung 'ohne Umbaumassnahmen ist es einfach 10 t Treibstoff wegzulassen, 8 t in der ersten und 2 t in der zweiten Stufe.

Ergebnis

Wie sich beim genauen Durchrechnen zeigt bringt schon das zweite Szenario 1,1 t mehr Nutzlast. Die größere Stufe steigert sie dann nicht mehr. Das verwundet etwas, ist aber der Tatsache geschuldet, das der spezifische Impuls etwas geringer als bei der zweiten Stufe ist und auch die Stufe wegen der Drucktanks schwerer wird. (Schlechteres Voll/Leermasseverhältnis).

Immerhin sind es aber dann 5,7 t womit man in dem Bereich ist, den die schwersten Einzelsatelliten haben. Bedeutsamer ist der Zuwachs in den SSGTO, da dieser bei SpaceX Standard ist. Das sind bei der kleinen Lösung 3800 kg (+300 kg), bei der mittleren 4550 kg (+1000 kg) und bei der großen nur noch 4510 kg (+660 kg). Auch hier ist nun wieder die Stufe der dritten Lösung schon zu groß. Die mittlere Lösung scheint also die beste zu sein. Sie bietet zudem den Vorteil gerade bei hohen Geschwindigkeiten die Nutzlast am stärksten zu steigern. (Zum Mars, SpaceX Langzeitziel sind es z.B. glatte 50% mehr (2140 zu 3380 kg).

Rakete: Falcon 9 Oberstufe 1

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
501822 5003 2300 10258 2416
Stufe Anzahl Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 1 400800 13500 3040
2 1 91500 3200 3355
3 1 2219 850 3040

Rakete: Falcon 9 Oberstufe 2

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
507424 5724 2300 10258 2416
Stufe Anzahl Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 1 400800 13500 3040
2 1 91500 3200 3355
3 1 7100 900 3040

Rakete: Falcon 9 Oberstufe 3

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
513317 5717 2300 10258 2416
Stufe Anzahl Name Vollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
1 1 392800 13500 3040
2 1 89500 3200 3355
3 1 23000 1500 3040

Das ist nur ein Vorteil. Die Verwendung von lagerfähigen Treibstoffen erlaubt neue Missionsszenarien. Bahntechnisch ist der SSGTO ungünstig. Die Überlegung die hinter dieser Bahn steht ist dass die Inklinationsänderung abhängig von der relativen Geschwindigkeit ist. Es ist einfacher bei 10 km/h seine Bahn um 90 Grad zu ändern als bei 200 km/h. Das kann jeder Autofahrer leicht überprüfen. Je höher die Bahn ist, desto geringer ist die Geschwindigkeit im erdfernsten Punkt. Die eingesparte Energie für die Inklinationsänderung muss aufgerechnet werden gegen die zusätzliche Energie die man aufbringen muss, um die Bahn am Schluss wieder auf maximal 36000 km Höhe abzusenken. In der Summe ist aber SSGTO keine gute Lösung, denn die Rakete muss mehr Energie für den SSGTO aufbringen, als die Nutzlast später einspart.

Mit einer Stufe mit lagerfähigen und hypergolen Treibstoffen könnte diese aber einen normalen GTO erreichen und eine Zündung im Apogäum machen welche die Inklination absenkt und das Perigäum anhebt. Der Geschwindigkeitsbedarf ist geringer und das steigert die Nutzlast.

Für die neuen "All Electric" Satelliten ist der SSGTO energetisch noch ungünstiger. Dafür würden sie profitieren wenn sie nicht so oft den Van Allen Gürtel durchqueren würden. Auch hier wäre eine höhere Kreisbahn günstiger, für die eine zweite Zündung nötig wäre.

Aber SpaceX braucht keine Oberstufe. Denn dieses Jahr wird ja die Falcon Heavy starten und deren Nutzlast ist mehr als ausreichend für alle derzeit gebauten Satelliten. Man muss nur noch eine doppelstartvorrichtung entwickeln, denn miteinander verbundene Satelliten wie beim letzten Start sind doch eine Ausnahme.

7.3.2015: Kurz vor der Zielmarke geschlagen

Ich nehme mal an dem Publikum hier muss ich nichts über Murphys Gesetz sagen. Ich wurde an es gestern erinnert und zwar in Bezug auf die Plutoforschung. Pluto war der letzte Planet, der 1989 noch nicht besucht war.

1977 gab es auch die Möglichkeit eine Voyager zu Pluto weiterzulenken, das wäre nach der Saturnpassage gewesen. Allerdings hätte man dazu eine andere Startbahn als die beiden gestarteten Sonden einschlagen müssen. Man hat aus naheliegenden Gründen darauf verzichtet. Die Sonden waren für fünf Jahre Betriebszeit ausgelegt. Die Instrumente auf die Beobachtung der Gasriesen und ihre Fähigkeit Daten zwischenzuspeichern war begrenzt. Eine Passage von Pluto erschien zudem wissenschaftlich nicht sehr interessant. Was bitte konnte man im äußeren Sonnensystem bei der Kälte finden? Die Entdeckung von Vulkanen auf Io, einem Patchworkmond wie Miranda und Geysiren auf Triton stand ja noch aus. Ebenso wurde Plutos Mond Charon und das der Planet eine Atmosphäre hat erst nach dem Start beider Voyagers entdeckt.

Alan Stern, PI der derzeit zu Pluto fliegenden New Horizons Sonde, machte in einem Blog einen Vergleich zwischen New Horizons und Voyager der natürlich zugunsten von New Horizons ausfiel. Neben neueren und empfindlicheren Instrumenten die noch dazu auf den Himmelskörper ausgelegt sind ist das größte Plus der Sonde Daten in größerer Menge zwischenspeichern zu können und das deutlich schneller als Voyager. Bei der Kombination von kleinem Himmelskörper und geringer Datenrate auf den Bandrekorder hätte Voyager nur wenige Bilder geliefert. Schon nach 10 aufgezeichneten Bildern hätte sich die Aufnahmedistanz verdoppelt.

1989, als Voyager 2 Neptun passiert hatte gab es wieder mehr Interesse an Pluto. Triton in fast gleicher Entfernung war geologisch aktiv und nachdem Reagan das Präsidentenamt räumte entspannte sich auch die Budgetlage. Es blieb aber einige Zeit bei Plänen. Mit Goldins Kurs zu billigen Missionen wendete sich das Blatt und eine nur 175 kg schwere Sonde "Pluto Fast-Fly-By" wurde geplant. Sie war aber technologisch zu ambitioniert und passte nicht in die Budgetgrenzen des Discovery-Programms.

Anfang 2000 ging man da ganze erneut an, mit einer etwas schweren und konventionelleren Sonde, Pluto-Kuiper-Express. (PKE) Die Kosten sollten begrenzt werden indem drei Sonden mit ähnlicher Architektur in wenigen Jahren starten sollten (Europa-Orbiter, Solar Probe und eben  PKE). Neu war nun auch die nach der Pluto vorgesehene Passage eines Objektes des Kuiper-Gürtels, die man nun dank automatisierter Suchprogramme in immer größerer Zahl entdeckte. Als George Dabbel-Ju Bush Präsident wurde, gab es Finanzkürzungen und innerhalb weniger Monate wurden alle Projekte eingestellt. Diesmal jedoch nicht ohne Widerstand. Der Kongress war gegen die Einstellung und man stellte Mittel zur Verfügung um die Mission doch noch durchführen zu können. Die Sonde wurde nochmals neu geplant, verwandte noch mehr Elemente anderer Sonden, so den Bus von Messenger und das ALICE Experiment von Rosetta und konnte als New Horizons doch noch durchgeführt werden. Was man verlor war Zeit. New Horizons startete erst 2006, PKE wäre ein Startfenster früher, 14 Monate früher gestartet und hätte Pluto schon 2012 erreicht. Das ging, weil die Stellung Jupiter-Pluto eine bessere Beschleunigung zuließ als bei New Horizons. Die Sonde hätte sich bis auf 500.000 km an Jupiter genähert und hätte viel bessere Möglichkeiten gehabt die galileischen Monde zu beobachten.

Doch es klappte ja noch mit New Horizons. Es ging auch hier nicht ohne Dramatik, so stellte man in Los Alamos die Arbeit zeitweise ein, weil Datenträger fehlten und bevor man das nicht geklärt hatte arbeitete man nicht am RTG der Sonde. So startete sie mit einem nur teilbestückten RTG, der beim Start 15% weniger Energie als ein vollbestückter hat. Doch die großen Pechsträhnen kamen erst noch.

Während die Sonde noch auf dem Weg zu Jupiter war, wechselte sie ihre Mission. Sie startete als Planetensonde und endete als Zwergplanetensonde. Denn die internationale astronomische Union erklärte Pluto zu einem Zwergplaneten und sprach ihm den Planetenstatus ab! Alan Stern konnte nichts machen. Aber es wäre ja wenigstens die erste Zwergplanetensonde gewesen - bis gestern Dawn in einen Orbit um Ceres einschwenkte, Ceres ist der zweite Zwergplanet den es gibt (mehr hat man bisher nicht definiert)., New Horizons wurde nach 9 Jahren Flug um 4 Monate geschlagen. Gerechterweise muss man sagen, dass dies schon beim Start von Dawn weitgehend feststand,. doch Ionentriebwerke erlauben weitgehende Bahnanpassungen, sodass Ankunftszeitpunkte eher Planungen sind anders als bei Vorbeiflugsonden, wo die Abweichung nach 9 Jahren Flug maximal einige Sekunden vom Plan betragen.

Während dass vorwiegend am Image kratzt ist ein anderer Umstand schon besorgniserregend. Wie PKE war die Passage eines weiteren Kuiperobjektes nach der Pluto Passage vorgesehen. Das sollte während des Flugs gefunden und die Missionsplanung erstellt werden. Viel Treibstoff, um die Sonde umzulenken, hat man nicht und durch den teilbestückten RTG auch nicht so viel Zeit. Man fand aber in den Beobachtungskampagnen mit Teleskopen von der Erde aus nichts. Schließlich setzte man sogar das empfindlichere, aber auch teure HST ein. Hubble fand in drei Wochen Suche dann drei Körper, allesamt sehr klein (zwei sind <55 km groß, der andere rund 34 km). Einer wäre definitiv erreichbar, doch was nützt das? Selbst der größere ist 40-mal kleiner als Pluto. Die Daten die man beim Vorbeiflug gewinnen kann sind entsprechend dürftig. Da dürfte es sich eher lohnen etwas Beobachtungszeit für die neu entdeckten Plutomonde abzuzweigen die ähnlich groß sind. Meine Vermutung: New Horizons wird kein weiteres Ziel nach Pluto ansteuern, einfach weil es sich nicht lohnt. Die Objekte sind 1 Milliarde Kilometer von Pluto entfernt, dafür braucht die Sonde rund 4 Jahre. Das bedeutet viele zusätzliche Kosten und wenig zusätzliche Erkenntnisse, da stellt man meistens ein. Murphys Gesetz schlägt zu. Fehlt nur noch das die Sonde bei der Passage sich in die falsche Richtung dreht ....

(Kleines Rätsel: Welche Raumsonde tat das mal bei dem Vorbeiflug des eigentlichen Ziels?)

11.3.2015: Walhalla

Nun kommen gerade die beiden nächsten Teile der "Deutschland-Saga". Ich hatte mich mal schon damit beschäftigt insbesondere damit, dass die Sendung ein australischer Professor moderiert, der in England arbeitet. aber so langsam sehe ich den Vorteil des "Blicks von Außen". Man lernt immer was hinzu. In der letzten Sendung z.B. das Deutschland das "most popular Country of the World" ist, zumindest nach einer BBC-Internetumfrage. Nun ja woanders möchte ich auch nicht leben, nur das Wetter im Winter ist nicht so toll.

Diesmal ging es um das Volk der "Dichter und Denker" - nein, das haben wir uns nicht selbst zugeschrieben, sondern nach der Sendung eine Madame de Stael, nach Wikipedia scheint der Begriff mehrere Väter zu haben. Besonders dreist scheint sich Thüringen als Land der Dichter und Denker zu bezeichnen - wohl verkennend, dass die meisten der "Dichter und Denker" woanders geboren sind wie Schiller oder Gothe. Wenn ich so nachdenke könnte man das sicher auch von Schwaben behaupten - Schiller, Hegel, Mörike, Kerner, Hauff, Hegel, Hölderlin, Hesse, Jünger  ..

Am Schluss kam der Professor noch auf die Walhalla. Nein, das ist nicht das germanische Himmelreich, das ist ein neoklassizistischer Tempel bei Regensburg. In dem stehen Büsten der bedeutendsten Deutschen. Der Professor wies auf einige Tatbestände hin, die schon seltsam sind. So kam Heinrich Heine erst 2010 dazu. Er hat mal ein Spotgedicht über die Walhalla verfasst:

Bei Regensburg läßt er erbaun
Eine marmorne Schädelstätte,
Und er hat höchstselbst für jeden Kopf
Verfertigt die Etikette.

»Walhallagenossen«, ein Meisterwerk,
Worin er jedweden Mannes
Verdienste, Charakter und Taten gerühmt,
Von Teut bis Schinderhannes.

Nur Luther, der Dickkopf, fehlt in Wallhall,
Und es feiert Ihn nicht der Walhall-Wisch;
In Naturaliensammlungen fehlt
Oft unter den Fischen der Walfisch.

 Das hat man ihm wohl über 150 Jahre lang nachgetragen. Es beschließt der bayrische Landtag wer reinkommt. Das scheint auch ein Grund zu sein. Die wählen ja auch sonst korrupte Minister, Aigner und Seehofer. Ich habe mir dann mal die Liste angesehen und da fällt schon einiges auf. Am meisten natürlich was fehlt. Es gibt praktisch keine Politiker aus dem 20-sten Jahrhundert, es gibt kaum Wissenschaftler und es gibt ziemlich viele Generäle. Einige kenne ich noch mit Namen wie Blücher, Gneisenau oder Scharnhorst, andere sind mir völlig unbekannt. Das gilt auch für eine Reihe von Nichtmilitärs.

Also ich sehe da Nachholbedarf. Bei den Politikern fehlt ein Vertreter der Weimar Republik wie Friedrich Ebert, auch von der Bundesrepublik. Ich denke Adenauer hätte einen Platz verdient. Er hat nach dem Krieg Deutschland im Westen verankert, die begründeten Ressentiments gegenüber Deutschland abgebaut, mit die EU gegründet und sogar mit Russland eine Aussöhnung erreicht. Das zwanzigste Jahrhundert ist auch so schlecht vertreten. Kein Vertreter der Literatur aus dieser Zeit. Bei den Wissenschaftlern fehlen Namen wie Haber, Heisenberg, Schrödinger, Pauli, Hahn, Albert Schweizer. Was das Ganze wohl schwierig macht ist das es nur noch sechs frei Plätze für Büsten gibt. Dafür gäbe es eine Reihe von Lösungen. Die offensichtliste - Umbauten damit man mehr aufstellen kann. Platz gäbe es genug: Innen ist die Walhalla 48,5 m lang, 14 m breit und 15,5 m hoch. Das zweite wäre ausmisten. Also einige Personen entfernen die man heute vergessen hat oder deren Leumund doch zweifelhaft ist, das betrifft vor allem Militärs.

Dann ist mir beim Sehen einer anderen Sendung noch was aufgefallen: Wir Deutsche haben ein Hymnenproblem. Bei uns wird ja die dritte Strophe des Deutschlandliedes gesungen. Ich war lange Zeit der Meinung die erste wäre verboten, aber man hat einfach beschlossen nur die dritte zu singen. Seit 1991 ist sie auch Nationalhymne. Die DDR hat aber auch Probleme mit ihrer Nationalhymne gehabt und dort hat man einfach (obwohl diese ja nach dem Krieg neu komponiert und getextet wurde) den Text ganz weggelassen weil dort "Deutschland einig Vaterland" vorkam und man ja nicht einig sein wollte und der andere Teil der Feind war. Also vom Text her ist die dritte des "Lied der Deutschen" die schönste. Die erste macht Sinn, wenn man den geschichtlichen Hintergrund der Entstehung kennt. Die geographischen Grenzen gelten heute nicht mehr und wahrscheinlich ist man nach dem Krieg über die Zeile "Deutschland über alles" gestolpert. Schaut man sich die Texte anderer Nationalhymnen wie der amerikanischen an wird man so etwas auch finden und jeder national gesinnte wird sein Land wohl als das beste empfinden (man kann den Text natürlich auch so interpretieren "Deutschland soll über die Welt regieren", doch das gibt er nicht her. Heute hat man ja eher das Problem das man es zu gut meint. Wir sind wohl das einzige Land auf der Welt bei dem "Gutmensch" ein Schimpfwort ist.

Das ideale Ionentriebwerk für jeden Zweck

Nun beginnen sie also ihre Reise die "All Electrric" Satelliten. Nun wären wir aber nicht im "Wir-Wissen-Es-Besser" Blog wenn ich nicht da was zu kritisieren hätte. Es geht um die eingesetzten Ionentriebwerke des Typs XIPS der Boeing Satelliten. Mit einem spezifischen Impuls von 3500 s (US-Einheit) sind sie für die Aufgabe nämlich nicht optimal. Dazu erst mal eine kleine Einführung in die Technologie. Es gibt drei grundlegende Typen. Am vergleichbarsten mit dem chemischen Antrieb ist der elektrothermische Antrieb. Hier wird ein Arbeitsgas durch einen Lichtbogen in ein Plasma umgewandelt. Das Plasma hat eine hohe Geschwindigkeit durch die hohe Temperatur. Der Wirkungsgrad dieser Typen ist relativ gering (als Wirkungsgrad definiert man die Energie die im Antriebsstrahl steckt getilt durch die aufgenommene Energie des Triebwerk. Bei lagerfähigem Arbeitsgas ist auch die Ausströmgeschwindigkeit gering. Die elektromagnetischen Triebwerke versuchen diesen Nachteil zu kompensieren indem sie das Plasma durch ein Magnetfeld beschleunigen. Die meisten Triebwerke gehören heute zu den Elektrostatischen Triebwerken. Bei diesen werden die Ionen nicht durch einen Lichtbogen erzeugt sondern durch andere Methoden wie Elektronenbeschuss oder Hochfrequenzfelder. Die Ionen werden dann durch ein Magnetfeld oder elektrisches Feld beschleunigt. Diese Typen haben relativ hohe Ausströmgeschwindigkeiten und Wirkungsgrade. Zu dieser Gruppe gehören auch die XIPS Antriebe. Je nach Ionisierung und Beschleunigung kann man außer diesen drei Kategorien zahlreiche Untertypen unterscheiden. Wie Hall-Effekt oder Kaufmann Triebwerke. Mehr über das ganze in einem eigenen Aufsatz.

Elektrostatische Antriebe erreichen heute in einer Beschleunigungsstufe 50 km/s. Schaltet man mehrere Beschleunigungsstufen hintereinander entsprechend mehr 200 km/s sind nach Projektstudien erreichbar. Wäre es dann nicht am besten das Triebwerk mit dem höchsten spezifischen Impuls zu nehmen?

Nun nicht unbedingt. So machen mehrere Stufen das Triebwerk schwerer und komplexer. Aber auch mit einer Stufe ist eine zu hohe Ausströngeschwindigkeit nicht erstrebenswert. Das kann man letztendlich auf den Energieerhaltungssatz zurückzuführen um die Ausströmgechwindigkeit zu verdoppeln muss man viermal so viel Energie zuführen. Da es meist Randbedingungen gibt, wie maximal vorhandene elektrishce Leistung, verfügbare Zeit um die Geschwindigkeitsänderung durchzuführen kann es nicht sinnvoll sein immer den höchsten spezifischen Impuls zu nehmen.

Bei den obigen Satelliten dürfte die Leistung des Solargenerators fest stehen. Daher habe ich mal im folgenden eine kleine Rechnung gemacht.

Folgende Annahmen sollen gelten:

Für 1500 m/sDie folgende Abbildung zeigt die Zusammenhänge. Die Reisedauer steigt annähernd linear mit der Ausströmgeschwindigkeit an. Bei 10 km/s sind es 94 Tage, bei 20 km/s 208 Tage und bei 40 km/s 440 Tage. Dagegen nimmt die Nutzlast zuerst sehr stark zu, dann immer weniger. Bei diesem Tatbestand lohnen sich sehr hohe Ausströmgeschwindigkeiten nicht. Steigert man beispielsweise sie von 10 auf 15 km/s so braucht man 57 Tage mehr und gewinnt 285 kg Nutzlast. Bei der Steigerung von 40 auf 45 km/s also ebenfalls 5 km/s sind es nur 58 kg mehr Nutzlast bei 58 Tagen höherer Reisezeit. Das Optimum dürfte daher dort liegen wo die Nutztlastkurve anfängt abzuflachen, so etwa um 15000 m/s herum. Nach einer Abschätzformel ergibt sich für 200 Tage Betriebszeit eine optimale Strahlgeschwindigkeit von 11,8 km/s und bei 400 Tagen dann 16,6 km/s. Dies basierend auf 8 KW Leistung. Nimmt man als Kriterium die Summe von verbrauchtem Treibstoff und Betriebsdauer so kommt man zu optimalen Werten bei 29 km/s (LEO->GEO) und 30 km/s (GTO-GEO)

Mit 35 km/s Geschwindigkeit der XIPS ergeben sich rund 133 Tage Betriebsdauer bei einem Treibstoffverbrauch von 105 kg. Das passt zu den Angaben von 4 bzw. 6 Monaten bei nur den gerade gestarteten Satelliten.(Wobei dies die reine Betriebsdauer ist. Da es auch Zeiten im Schatten gibt wird die reale Transferdauer höher sein).

Es gibt allerdings eine gute Nachricht: die meisten Ionentriebwerke sind regelbar. Je nach Typ können sie weniger Strom verbrauchen und weniger Schub liefern bei gleicher Ausströmgeschwindigkeit aber auch gleich viel Schub bei niedriger Auströmgeschwindigkeit. Das letzte wäre wünschenswert für diesen Fall. Da der Wirkungsgrad jedoch nicht immer der gleiche ist, ist es sinnvoll ein Ionentriebwerk so auszulegen, das es in dem Bereich arbeitet den man später braucht.

18.3.2015: Der beste Computer - der schlechteste Computer

Ein Grund warum es in letzter Zeit so wenig neues gibt ist auch das bei mir gerade renoviert wird. Das heißt viel umräumen, damit man die leeren Möbel verschieben kann. Ich nutze das auch um auszumisten und mehr System reinzubringen.

Da kam mir vor zwei Tagen in Packen Hefte genauer gesagt das "P.M-Computerheft" in die Hände. Ich habe ja schon bereut, als ich die "Computergeschichte(n) " schrieb, das ich die alten Hefte meist wegschmieß. Damals änderte sich so viel in so kurzer Zeit, das der Inhalt für aktuelle Kaufentscheidungen bald veraltet war. Heute wären sie wertvoll wegen der Testberichte, aber auch den Anzeigen die damals irgendwie phantasievoller waren. Jedenfalls habe ich angefangen ein Heft zu lesen. Es enthält schon 1989 gültige Weisheiten ("Wie schnell ein Computer ist hängt von der Meßmethode ab") und ich bin über einen Vorabtest des NeXT Computers gestolpert. Der liest sich wie eine Prophezeiung: "den schönsten Computer den ich je gesehen habe" (Bill Gates) "NeXT wird den Erwartungshorizont für Computer neu definieren" (Mitch Kapor) und auch der Redakteur kommt zum selben Schluss "neben Jobs durchgestylter schneller Maschine sehen MS-DOS Systeme wie Geräte aus der Steinzeit aus - sowohl ästhetisch gesehen wie auch technologisch". Also der Computer der Zukunft?

Nun 26 Jahre später (eigentlich hätten zwei oder drei Jahre auch genügt) ist man schlauer. Nun ja. Der Artikel hat recht. Der Computer war eine Revolution - nicht nur vom optischen Aussehen sondern auch von den technischen Daten. Mit dem Motorola MC 68030/68882 Gespann und 8 MB RAM war er eine Workstation, eine Liga oberhalb der PCs. Dazu ein hochauflösender Monitor, ein grafisches Betriebssystem, dessen Screenshot Elemente zeigt die es auf dem PC erst später gab wie Grafiken in Menüs oder abtrennbare Menüs. Es gab Spezialchips für den I/O-Verkehr und die Digital-Analog Umwandlung. Primäres Medium war eine magnetooptische Wechselplatte mit 256 MB Größe.

Der Computer wäre eine Revolution gewesen - wäre, wenn es nicht einige kleine Probleme gab. Der angekündigte Preis im Test 6.000 Dollar war für Universitäten, aber ich glaube auch die bekamen den Rechner nicht so billig. Erst ein Jahr später gab es ihn auch für die Allgemeinheit zu kaufen und dann 9.999 Dollar teuer. Das zweite war das magnetooptische Laufwerk. Es war das einzige Laufwerk im Rechner. Das war ein Fehler: es war langsamer als eine Festplatte und teurer. Angegebene Zugriffszeiten von 60 ms und Kosten (50 Dollar pro Scheibe) waren nicht zu halten (96 ms/150 Dollar). Vor allem war, da das Betriebssystem auf de Platte war, es nicht möglich eine Platte zu kopieren (was schon nötig war, um sie zu wechseln, da jede Platte das Betriebssystem brauchte) ohne einen zweiten NeXT Rechner im Netzwerk zu haben. Ein einzelner NeXT war nutzlos.

Die Spezialchips machten Dinge möglich, die man vorher nicht konnte und entlasteten den Hauptprozessor, mussten aber mitbezahlt werden wenn man sie nicht brauchte. Der 17 Zoll Monitor bot hochauflösende Grafik, aber nicht Farbe.

Kurzum: Der Rechner konnte vieles, hatte aber zwei Schwächen und das er vieles konnte, bedeutete auch das jemand der nur eine UNIX-Workstation suchte vieles mitbezahlte, das er nicht brauchte und wer eine Grafikworkstation suchte vermisste die Farbe. Die Idee die Oberfläche mit Postscript zu zeichnen war - nun ja auch nicht gerade die beste. Kurz gesagt: der Rechner konnte vieles, aber nichts richtig. Vor allem aber waren die optischen Laufwerke eine Sackgasse. Sie waren langsamer als Festplatten, was das System ausbremste und der Preisvorteil der für sie versprochen wurde, war auch nicht gegeben.

NeXT hat das ganze dann nochmals verbessert und etwas konventioneller rausgebracht, aber die Wende kam auch damit nicht. NeXT wurde zur reiner softwareschmiede. Anfangs gab es Interese bei vielen Firmen, doch letztendlich gelang auch das nicht. Apple kaufte NexT auf um auf Basis des Betriebssystems ihr veraltetes Mac-OS zu modernisieren. Vielleicht auch nur um Steve Jobs miteinzukaufen. Das hat sich ja gelohnt. Allerdings war das sicher nicht abzusehen. Denn auch nachdem Jobs übernommen hatte ging es mit Apple zuwerst weiter bergab. der Erfolg kam nicht mit den Macs sondern den Lifestyle Produkten wie iPod, iphone, IPad.

NeXT war übrigens Jobs dritter Flop in Reihe. Er gilt ja heute als Computerguru. In Wirklichkeit floppten alle früheren Projekte, bei denen er direkt Einfluss nahm (ich vermute mal er hat draus gelernt uns sich später weitgehend rausgehalten - das führte auch bei Pixar zum Erfolg). Der Apple III war in sich geschlossen, nicht 100% kompatibel zum Apple II und Jobs Forderung nach einem kompakten Rechner führte zu Bestückungsproblemen in der Fertigung die die Firma viel Renommee kostete.

Der Apple Macintosh sollte schnucklig sein und ebenfalls geschlossen. Auch das war ein Fehler. Die Monitorgröße war fix und während das Konzept sicher aufgegangen wäre, hätte man den Rechner für die geplanten 1500 Dollar verkaufen können, kosteten sie als sie rauskamen 2500 Dollar und damit waren sie in einem anderen Marktsegment angesiedelt. So viel gaben nicht Privatkäufer für einen Mac aus.

Und dann eben der Next, als technisch überzeugender Computer, nur eben keiner der richtig zu jeder existierenden Zielgruppe passte.

Immerhin eines ist mir aufgefallen, was ich vorher nicht wusste: der NeXT wurde mit einem ziemlichen Softwarepaket ausgeliefert wurde. Allerdings wenig Anwendungssoftware sondern mehr Programme zur Entwicklung und dem akademischen Umfeld wie Lexika, Thesaurus etc. Das war damals noch ungewöhnlich. Software kostete in den späten Achtzigern meist einige Hundert bis über 1000 DM pro Programm. ESCOM (kennt noch jemand die deutsche Computerkette?) machte lasnge Zeit Werbung damit, dass ihre Computer mit Software ausgeliefert wurden die 3500 Mark wert sei - das überstieg bei den billigeren Rechnern den Wert des Computers.

Noch etwas ist historisch wichtig: Auch das CERN kaufte einige NEXT-Computer. Tim Barners-Lee sollte herausfinden was man damit anfangen kann und entwickelte HTML, die Beschreibungsspache des Internets. Damit begann erst der Internetboom, weil es nun erstmals für Endnutzer nützlich war.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99