Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 503 2.7.2017 - 12.7.2017

2.7.2017: Wir brauchen kein neues Space Council

Für Spacenews und SpaceFlightNow ist es eine Headerschlagezeile mit ellenlangem Bericht. Trump hat ein nationales Space Council eingerichtet. Ein solches gab es schon von 1989 bis 1993 und unter anderem Namen von 1958 bis 1973.

Als ich mir den Wikipediaeintrag anschaute, war ich von der Kürze erstaunt. Viel gibt es nicht über gut 19 Jahre der Arbeit nicht zu sagen. Alle dort aufgeführten Personen sind mir, sofern sie nicht gleichzeitig leitende Funktionen in der NASA hatten, nirgendwo sonst im Raumfahrtprogramm begegnet.

Ein Council ist ein Rat, zumindest in dieser Bedeutung als Gremium nahe des Präsidenten. Es soll also den Präsidenten bei Beschlüssen in Sachen Weltraumfahrt beraten. Das ist an und für sich nichts Schlechtes. Unter Kennedy war Lyndon B. Johnson Leiter des Space Councils. Er hatte Interesse an der Raumfahrt, vor allem bemannten Raumfahrt und sorgte dafür, dass das Zentrum für bemannte Raumfahrt nach Texas kam, da er Senator dieses Staates war. Im Council von George W. Bush finde ich aber nur Politiker oder Personen, die nicht direkt mit Weltraumfahrt zu tun haben, mit Ausnahme des NASA-Administrators.

Die Frage ist nun: Nützt es etwas? Nun in die Zeit des ersten Konzils fallen einige wichtige Entscheidungen wie die Programme Gemini, Apollo und Space Shuttle. Soweit mir bekannt hat J.F. Kennedy aber bevor er das Apollo-Programm verkündete sich direkt Rat bei hochkarätigen Technikern geholt. Wernher von Braun hat er nach seinen Vorschlägen für Programme, mit denen man gegen die sowjetischen Erfolge auftrumpfen könne, gefragt und auch nach Kostenabschätzungen.

In der Zeit des zweiten Space Councils sind mir keinerlei Entscheidungen bekannt, die fundamentaler Natur sind. Die ISS wurde während dieser Zeit geplant, aber sie war immer zu teuer, genehmigt wurde sie schließlich unter Clinton. Am Ende der Zeit gab es den Kurswechsel bei der unbemannten Raumfahrt zum Discovery Programm, doch dies ging alleine von NASA-Administrator Goldin aus.

Die NASA hat heute ein ganz anderes Problem: das gleichbleibende Budget. Man kann mit einem gleichbleibenden Budget durchaus Raumfahrt betreiben, vor allem wenn es viele Projekte gibt - dann kann man ein neues aber erst Anfangen wenn ein altes ausläuft. Vor allem ist bei größeren Projekten es schwierig sie in den Finanzrahmen einzufügen, selbst wenn man alte einstellt. Das grundlegende Problem ist, das es einen Entwicklungszyklus gibt: Die Kosten für die Entwicklung steigen zuerst an, erreichen zur Hälfte der Dauer den Höchststand und sinken dann wieder. Das ESA Budget umfasste 2014 z. B . 4.102 Mrd. Euro, für 2017 waren es 5,25 Milliarden. Am stärksten zulegten Navigation (Aufbau des Galileo Netzes) und Erdbeobachtung (Sentinel-Programm) mit 400 bzw. 600 Millionen Euro zu. Diese Posten werden sinken, dafür werden die Träger 2018/19 wesentlich mehr Gelder brauchen, trotzdem ist das Budget um 30% in drei Jahren gestiegen. Dabei hat die ESA relativ überschaubare Programme in der Entwicklung, nicht wie bei der NASA die SLS und Orion. Zudem läuft dort nichts aus, was Gelder freisetzen könnte. Per Gesetz ist die NASA zu einem gleichbleibenden Budget verdonnert, in dem System sind nicht mal Rücklagen möglich so in der Art „in zwei Jahren brauchen wir viel Geld für die SLS, fangen wir dafür jetzt nichts Neues an und legen das Geld beiseite“. Das ist eine Herausforderung. Bei anderen Budgets wie beim Militär scheint das Gesetz dagegen keinerlei Macht zu besitzen.

Als George Bushs sein Konstellation-Programm aus der Taufe hob, sollte dies wenigstens zum Teil durch Einstellung des Space Shuttles und der ISS – zusammen rund 5 Mrd. Dollar pro Jahr finanziert werden, trotzdem wäre das Budget einige Jahre lang (begrenzt) zu steigern, um danach wieder zu fallen. Der Augustine Report hat diese Finanzierungsweise als ineffizient gebrandmarkt. Sie verlängert das Programm künstlich und führt zu Mehrkosten, weil man so viel Zeit verliert. 2005 beschlossen, wäre das Programm erst 2011 in die Gänge gekommen, weil vorher noch ISS und Space Shuttle die Mittel blockierten und selbst dann musste man den Zeitplan strecken, um eine Finanzierungsspitze zu vermeiden. Dabei war dieses Modell ja wenigstens noch eines mit einem steigenden Budget für Mondflüge, nun sollen sie bei einem gleichbleibenden Budget finanziert werden. Zu welchen Schlüssen wohl da ein Report heute kommen würde? Leider gibt es solche Audits ja erst, wenn es aus dem Ruder läuft oder ein neuer Präsident einstellen will und eine Begründung braucht. Eigentlich sollte man nach 1,2 Jahren das Modell automatisch überprüfen.

Kurzum: Der NASA wäre mehr gedient mit einem beweglichen Budget, als einem weiteren Rat. Wobei ich von einem beweglichen Budget spreche, nicht einem höheren. Es muss dem Finanzierungsbedarf angepasst sein. So war z.B. das ESA Budget 2013 mit 4,25 Milliarden Euro etwas höher als 2014 mit 4,103 Milliarden. Es kann also als Ausgleich für eine Spitze dann auch mal sinken.

Vor allem aber geht es bei einem solchen Konzil doch um Großprojekte. Ich glaube nicht das sich Trump oder irgendein früherer Präsident um ein kleineres Projekt gekümmert hat, nicht mal um die größten unbemannten Projekte wie Viking, Hubble oder Cassini mit einem Finanzumfang von mehreren Milliarden Dollar. Wenn dann ging es sicher um die großen bemannten Projekte. Soweit ich über die informiert wurde, gab es die gesamte Planung für die aber intern bei der NASA. Im Space Council wird man dann über die fertig ausgearbeiteten Vorschläge beraten haben. Allerdings wahrscheinlich auch nur über die Kosten, denn dort sitzen ja fast nur Politiker. Gerade das Space Shuttle zeigt auch die Grenzen des Space Concils auf. Schon als das Space Shuttle genehmigt wurde, gab es ja Einwände, das die Kostenvorschläge viel zu optimistisch seien. Zwar konnte man damals nicht die wahren Flugkosten kennen, aber diese waren ja mit einer Startfrequenz verknüpft und an bis zu 60 Flügen pro Jahr, mit jeweils 25 t Nutzlast (doppelt so viel wie die größte US-Trägerrakete transportieren konnte) glaubte keiner. Was ein solches Space Concil braucht, ist wissenschaftlicher Sachverstand. Von Finanzierung verstehen Politiker schon genug. Es müsste beraten, was wissenschaftlich sinnvoll ist, was höhere Priorität im Weltraumprogramm haben müsste und was nicht. Es sollte dazu besetzt sein mit Fachleuchten mit unterschiedlichen Interessen z.B. für bemannte Raumfahrt, Wissenschaft, Anwendung. Denn jeder hat seine Sicht auf die Dinge.

Bisher hat die Trump Administration nichts Neues gestartet aber immerhin ein, wie ich finde, überflüssiges Projekt eingestellt, die Asteroid Redirect Mission. Dabei sollte ein relativ kleiner Brocken, der sowieso keinen Schaden verursacht hätte, abgelenkt werden. Den einziger Nutzen, die ich darin sehe, ist die Technologie von Ionentriebwerken und leichtgewichtigen Solar Arrays zu fördern (gerade hat man eines, ROSA getestet) doch das könnte man auch mit unbemannten nützlichen Missionen. Wenn man das angeht, dann würde ich einen Brocken nehmen, der wirklich so groß ist, dass er bedrohlich ist und dann sehen, ob man diesen über Jahre wirklich aus seiner Bahn ablenken kann. Dass dies mit einem nur 10 m großen Asteroiden möglich ist, das weis man schon vor dem Start. Er ist einfach leicht genug.

Ich persönlich erwarte von Trump keine neuen Projekte, nicht mal bemannte. Die versprechen zu wenig Schlagzeilen, liegen nicht in seinem Interessenshorizont und widerstreben seinen Vorstellungen von „Good Deals“ und Zeitplanungen. Ja, wenn man eine Marslandung heute beschließen, sie vor Ende seiner Amtszeit stattfindet und sie nicht viel kostet, dann wäre er vielleicht dafür, aber sonst? Dauert alles zu lang, er erntetet nicht mehr die Meriten und viel Geld gibt er höchstens für Militär oder Mauern aus.

Kurzum Trump braucht kein Space Council, zumal ich ihn als beratungsresistent einschätze.

5.7.2017: Wie deorbitiere ich Cubesats?

Der Start von Cubesats floriert. Es sind immer mehr in den letzten Jahren geworden. Während die Plattform ursprünglich entwickelt wurde, damit Raumfahrtstudenten preiswert Praxiserfahrungen sammeln können, nutzen nun Unternehmen so kleine Satelliten kommerziell, wie Planetlabs mit seiner Flotte von Dove Satelliten – praktisch um ein kleines Teleskop herum errichtet, dass immerhin einige Meter Auflösung liefert. Das ein 3U-Satellit von wenigen Kilogramm Masse kommerziell nützlich ist war vor 10 Jahren noch undenkbar.

Mit den vielen Satelliten entsteht aber ein neues Problem: Weltraummüll. In den vergangenen Jahren waren Transporte zur ISS die wichtigste Startmöglichkeit. Das liegt zum einen auf der Hand, wird die Station doch von 2-3 Progress, einem HTV, bis 2014 noch von ATV und von jeweils 3-4 Cygnus/Dragon pro Jahr angeflogen, zusammen mindestens 10 Starts pro Jahr. Dank der Tatsache, dass die NASA alles tut, um die "Nützlichkeit" der bemannten Raumfahrt zu beweisen und dabei die Kosten-Nutzenrechnung anders als bei normalen Starts ist, ist die einfachste Startmöglichkeit für einen Cubesat heute die, das er im Inneren! eines Frachttransporters zur ISS gelangt. Von einem Astronauten ausgepackt und in einem Cubesatlauncher im japanischen Modul ausgesetzt wird. Das Anführungszeichen habe ich bewusst gesetzt, denn man könnte die Cubesats natürlich auch direkt an der Oberstufe befestigen und von dort aussetzen. Ihn in einem Frachter zu transportieren ist aus mehreren Gründen verrückt. Zum einen kann ein Frachter nur ein Drittel seines Gewichts als Nutzlast transportieren, er selbst kostet auch Geld, und zwar mehr als die Rakete und die Cubesats sind sogar noch verpackt (siehe dieses Bild), was ihr Gewicht und Volumen erhöht. Beim ATV sähe die Rechnung z.B. so aus: Nutzlast der Ariane 5: 21.100 kg bei 170 Mill. Euro → 8.050 €/kg. Nutzlast des ATV: 7.700 kg bei 450 Mill. € → 58.440 €/kg. Kurz: diese Vorgehensweise ist siebenmal teurer, als wenn man ihn direkt auf die Oberstufe montiert hätte (gut dann kämen noch Kosten für die Struktur hinzu, ein ESPA-Ring kostet 250.000 Dollar, ist allerdings nicht für Cubesats gedacht).

Cubesat-StartsTrotzdem war diese Startmöglichkeit bisher die beste. Es fehlte bei anderen Launch Service Providern die nötige Flexibilität. Wie bei großen Satelliten musste man Starts Jahre vorher buchen und sehr oft lehnten diese die Mitführung von so kleinen Nutzlasten komplett ab. Arianespace ist so ein Beispiel, aber auch die US-Provider bekleckern sich hier nicht besonders mit Ruhm. Die einzige Ausnahme war bisher Orbital die bei 6 Starts bisher 102 Cubesats mitgeführt haben. Russland und Indien sind hier flexibler. Allerdings starten diese vor allem größere Satelliten als Hauptnutzlast in sonnensynchrone Orbits. Beim Rekordstart einer PSLV dieses Jahr war die primäre Nutzlast der 714 kg schwere indische Erderkundungssatellit Cartosat 2D der in einen 505 km hohen sonnensynchronen Orbit gelangte. Andere Erdbeobachtungssatelliten erreichen noch höhere Umlaufbahnen bis in 800 km Höhe. In 505 km Höhe ist bei einer mittleren Sonnenaktivität von 170 (Mittel über inaktive und aktive Sonne in einem Zyklus) ein 3U Cubesat von 3 kg Masse nach rund 12 Jahren verglüht. In der Bahnhöhe der ISS (beim Schreiben des Artikels: 405 km) sind es dagegen nur 1,91 Jahre. Es geht also sechsmal schneller und in 600 km Höhe liegen wir schon nahe 60 Jahren. Bei dieser Vielzahl von Satelliten – das Diagramm zeigt, wie die Zahl der Nutzlast seit einigen Jahren rapide ansteigt, die Zahl der Starts dagegen weitaus weniger – 2017 gab es, obwohl das Jahr erst zur Hälfte rum ist, schon mehr Nutzlasten als im ganzen letzten Jahr, Damit wird ihre Entsorgung zum Problem, vor allem wenn sie nun eben in höheren Umlaufbahnen abgesetzt werden.

Über Weltraummüll durch Satelliten macht man sich erst seit einigen Jahren Gedanken. Früher beschränkte man sich auf die Oberstufen – zugegeben, wenn eine Oberstufe durch in den Tanks ansteigenden Druck explodiert, gibt es sehr viele Bruchstücke, doch auch Satelliten sind eine Quelle. Bei der ESA haben nun alle Satelliten einen extra Treibstoffvorrat um sie zu Missionsende zu deorbitieren oder zumindest die Bahn soweit abzusenken, dass sie in 1-2 Jahrzehnten verglühen. Bei Satelliten in höheren Bahnen schiebt man sie dagegen weiter weg in einen Friedhofsorbit. Dieser Treibstoffvorrat ermöglichte es zwei Galileo Satelliten zu retten, als eine Sojus sie im falschen Orbit platzierte. Umgekehrt muss nun Metop-A in einen neuen Orbit verschöben werden. Er wurde gestartet, als es die Vorschrift noch nicht gab und nun braucht man die Hälfte des Treibstoffs zum Deorbitieren, er war eigentlich für Bahnkorrekturen vorgesehen. Würde man die Bahn nicht anpassen so würde er 200 Jahre im Orbit bleiben.

Ich glaube die ESA Entscheidung wurde stark vom Ausfall von Envisat am 8.4.2012 beeinflusst. Es riss der Funkkontakt ab, sodass man nicht ganz genau weiß was passiert ist, aber sicher ist, dass man ihn nun nicht mehr steuern kann und nun hat man einen 8,2 t schweren, 25 x 10 x 7 m großen Satelliten der sich zweimal im Jahr bis auf 200 m an katalogisierte Trümmer nähert und erst in 150 Jahren verglühen wird. Keine besonders schöne Vision …

Das Dumme: Cubesats haben kein eigenes Antriebssystem. Die meisten haben nicht mal ein aktives Lageregelungssystem und werden passiv stabilisiert. Man kann sie also nicht gezielt deorbitieren. Selbst wenn dann gibt es immer noch die Wahrscheinlichkeit eines Defektes an Bord und abreisen des Funkkontaktes wie bei Envisat. Bei Cubesats mit weniger Möglichkeiten aufgrund des beschränkten Gewichts und der Masse für redundante Elektronik, Sender und Empfänger sogar noch eher als bei großen Satelliten.

Es wurden schon Ideen unterbreitet, wie man dies bewerkstelligen könnte. Am einfachsten durch Erhöhung des Reibungswiderstandes. So wurden kleine Sonnensegel oder alternativ schirmförmige Strukturen, ähnlich der entfaltbaren Antenne von Galileo vorgeschlagen.

Mein Vorschlag nutzt dasselbe Prinzip, aber ist einfacher aufgebaut, ohne mechanische Teile. Diese können versagen. Das zeigt gerade die nicht entfaltete Antenne bei Galileo. Im Allgemeinen versucht man heute bewegliche mechanische Teile in Satelliten zu vermeiden, wo es nur geht, weil sie aufgrund der Beanspruchung schneller ausfallen als nicht bewegliche Teile. So gehören Ausfälle von Reaktionsschwungrädern oder Gyroskopen zu den häufigsten Ursachen, dass man einen Satelliten aufgeben muss.

Meine Lösung ist so einfach wie Simpel: In einem Cubesat-Abteilung (1U) befindet sich ein zusammengefalteter Ballon mit dünner Haut. Im Inneren eine Kartusche mit Feststofftriebstoff und elektrischem Zünder und ein einfacher Mikrocontroller mit Batterie, Echtzeituhr und Bluetooth-Empfänger. Die Batterie dient als Stromversorgung. Da die gesamte Elektronik nicht viel zu tun hat, habe ich mich an einer Digitalarmbanduhr orientiert und da hält eine kleine Knopfzelle mehrere Jahre. Eine normale AA-Zelle von der mehrfachen Kapazität müsste dann über Jahrzehnte reichen. Das Programm des Controllers ist ganz einfach: Er fragt einmal in einem Zeitintervall, z.B. einmal pro Stunde die Echtzeituhr ab. In einem größeren Intervall, dafür über einige Minuten, die Bluetooth Verbindung, z.B. einmal pro Tag. Der Hauptcomputer sendet nun dauernd oder zumindest kurzzeitig pro Abfrageintervall des Mikrocontrollers nur ein Signal auf dieser Bluetooth Verbindung. Es veranlasst den Mikrocontroller beim Empfang in eine Speicherzelle die aktuelle Uhrzeit mit Datum zu speichern. Beim regulären Programm vergleicht er die aktuelle Zeit mit diesem Wert und ist die Abweichung z.B. größer als 30 Tage, d. h. seit 30 Tagen wurde die Uhrzeit nicht zurückgesetzt, dann löst er den Zünder der Kartusche aus. Dieser bläst durch die Gase den Ballon auf und bewegt die drehbar montierten Seitenwände weg. Das System funktioniert also selbst dann, wenn der Hauptsatellit nicht mehr arbeitet und es aktiviert sich von alleine nach 30 Tagen.

Eine 1 U Einheit eines Cubesats wiegt 1 kg. Nimmt man 500 g für den Ballon an, so kann man einen recht großen Ballon aufblasen. Der 0,8 kg schwere Satellit AVL 802G hatte einen Durchmesser von 2,13 m. So wäre ein 1.7 m großer Ballon möglich – er hat die 222-fache Fläche ein 1U Cubesats. Der Effekt ist dramatisch. Ein 6U Cubesat der mit der Stirnfläche in Bahnrichtung fliegt würde aus 800 km Höhe erst in rund 98 Jahren Verglühen, mit dem Ballon wären es 0,53 Jahre.

Zugegeben, ein Kilogramm Masse ist etwas viel, aber man kann es herunterskalieren. Mikrocontroller, Batterie und Uhr wiegen wenig, bei 0,2 m² Fläche wird ein 1U Cubesat von 1 kg Gewicht immer noch aus einer 600 km Bahn in einem Jahr deorbitiert – und dann wiegt der Ballon weniger als 45 g. Mit Batterie und Controller kommt man dann vielleicht auf 60-70 g. Das sind 7 % der Masse.

Das Interessante ist aber, das man das Prinzip relativ einfach hochskalieren kann. Der Ballon muss nur größer sein. Ein 1000 kg schwerer Satellit der aus 600 km Höhe in 1 Jahr deorbitiert werden soll benötigt einen Ballon mit 200 m² Fläche. Das entspricht 16 m Durchmesser. Das liegt zwischen dem Durchmesser von Pascomsat OV8-1 mit 9,1 m und 3,2 kg Masse) und Pageos mit 30,48 m und 56,7 kg Masse. Hochskaliert von OV8-1 entspricht das einem Gewicht von 10 kg. Mit 10 kg Treibstoff würde im günstigsten Falle der Satellit seine Umlaufbahn aber maximal von 600 auf 547 km Höhe absenken können. Hätte er eine abzubremsende Fläche von 12 m² gehabt (2 x 2 x 2 m Solarpanel + 2 x 2 m Zentralkörper) und diese voll in Bahnrichtung gedreht so hätte er 7 Jahre für die weitere Abbremsung gebraucht.

Für solche Satelliten ist nicht nur der Aspekt des Treibstoffsparens wichtig, sondern auch das das System unabhängig von der Elektronik des Hauptsatelliten ist. Hätte man es schon bei Envisat gehabt, es hätte nach 30 Tagen einen Ballon ausgelöst und Envisat abgebremst. Envisat ist wegen seiner hohen Bahnhöhe von 767 km und Masse von 8,2 t eine Herausforderung. Doch 56,7 kg Masse zusätzlich, die des Ballonsatelliten Pageos 1 hätten ihn in 20 Jahren deorbitiert. Könnte man die Ballone skalieren, so würde man mit 16.000 m² Fläche, das ist ein Ballon von 143 m² Durchmesser ihn in einem Jahr deorbiteren. Gut das Jahr habe ich genommen, weil es gut klingt, ich denke, Weltraumagenturen wären auch mit 5-10 Jahren zufrieden. Dann liegt man aber selbst bei den schwersten Satelliten bei Ballonen, die man schon realisiert hat. Der größte war Echo 2 mit 41 m Durchmesser.

Dabei ist das System sowohl elektronisch wie auch mechanisch einfach. Im Prinzip ist die Technik die gleiche wie bei einem Airbag, nur viel größer. Es müsste daher auch preiswert umzusetzen sein.

Mich würde nicht wundern, wenn man das in einigen Jahren wirklich nutzt, wäre ja nicht das erste Mal ...

Die Verlierer der PC-Revolution

Am Montag Abend kam im Ersten recht spät „Die Silicon Valley Revolution“. Ich liebe ja die PC-Geschichte, zumal ich einen guten Teil davon miterlebt habe. Das war schlussendlich auch der Antrieb für mich selbst ein Buch darüber zu schreiben. Also habe ich mir auch diese Dokumentation angesehen. Sie ist allerdings nicht ganz nach meinem Geschmack. Es geht eigentlich nicht so sehr um die PC-Geschichte. Die Sendung ist dafür zu weit gefasst. Sie beginnt mit der Hippiegeneration in den späten Sechzigern und endet heute. Obwohl es 90 Minuten sind, ist das zu lang, zumal die Sendung zum größten Teil aus Interviews besteht, bei denen jeder Teilnehmer mit einem Polaroid vorgestellt wird, was Zeit schindet. Auffällig für mich war, das ich die meisten Interviewpartner nicht kannte. Wer dabei war, und den ich kannte, der war „zweite Garde“, also mir sagt der Name was, ich vermute aber 90 % der Blogleser nichts. Die verbinden die PC-Revolution mit wenigen bekannten Namen wie Bill Gates, Stephen Wozniak oder Steve Jobs.

Was mir so im Laufe der Sendung auffiel, ist das alle aus der „zweiten Garde“ nicht reich wurden, zumindest nicht so wie Bill Gates oder Steve Jobs. Das inspirierte mich zu meinem Titel, der nicht ganz so ernst gemeint ist. Ich will einige der „Verlierer“ mal vorstellen.

Ron Wayne

Ron Wayne ist der unbekannte dritte Gründer von Apple. Er arbeitete bei Atari und war mit Steve Jobs befreundet. Irgendwann kam Jobs auf Wayne zu. Stephen Wozniak arbeitete zu diesem Zeitpunkt an dem Apple I und Steve Jobs wollte den Rechner verkaufen. Wozniak wollte das nicht. Steve Jobs brachte Wayne dazu Wozniak in einem Gespräch davon zu überzeugen das Wagnis einzugehen und den Rechner zu verkaufen, anstatt jedem der sich für den Apple I interessierte die Schaltpläne in die Hand zu drücken. Wozniak und Jobs gründeten eine Firma, wobei Wayne 10 % bekam. Angeblich, damit er erneut als Schlichter zwilchen Jovbs und Wozniak auftreten könne, wie er heute sagt. Finanziell beteiligt scheint er nicht gewesen zu sein, zumindest habe ich nichts darüber gefunden, was mir bei Steve Jobs Geschäftssinn etwas komisch vorkommt. Jobs schenkt keinem was, siehe auch Daniel Kottke. Schlussendlich weiß man heute das Jobs selbst Wozniak beschissen hat, als die beiden für Atari ein Spiel entwickelten. Wozniak die Hauptarbeit hatte, und Jobs den Großteil des Geldes einstrich.

Wayne zeichnete das erste Apple logo das Newton unter dem Apfelbaum zeigt und war am Manual des Apple I beteiligt. Bald darauf erfährt er das die junge Firma einen Kredit von 15.000 $ aufnehmen musste und Paul Tyrell, Eigentümer der Byte-Computerkette, der die Rechner abnimmt die Rechnungen nicht zahlt. Er bekommt, weil er schon auf einem Berg Schulden sitzt, kalte Füße und steigt schon 11 Tage nach Gründung von Apple wieder aus. Er erhält 800 Dollar für seinen Anteil, später weitere 1.500 Dollar. Heute wäre der 10% Anteil über 80 Millairden Dollar wert. Nach eigener Aussage hat den Ausstieg nie bereut.

Die Geschichte geht aber noch weiter. Er verkaufte 1994 seine Ausfertigungen der Apple Verträge für einige Tausend Dollar. Der Besitzer lies sie 2011 bei Sothebys versteigern, wobei sie 1,6 Millionen Dollar einbrachten – zum zweiten Mal Pech gehabt. Hier eine etwas längere Version der Geschichte.

Daniel Kottke

Daniel Kottke ist zusammen mit Bill Fernandez der erste Angestellter von Apple. Sie bauen zusammen mit Wozniak in der Garage den Apple I zusammen. 1978 nach seinem Studium wird er Apple Vollzeitmitarbeiter, doch Jobs weist ihm nur einen Platz in der Platinenfertigung zu. Er ist Mitarbeiter Nummer 12. Er bekommt aber nur den Mindestlohn von 3 Dollar pro Stunde. Als 1980 Apple an die Börse geht, weigert sich Steve Jobs irgend einem der Mitarbeiter von seinen Aktien bzw. Optionen auch nur eine abzugeben, selbst bei den ältesten Mitarbeitern. Stephen Wozniak dachte anders. Er verkaufte an 40 der ältesten Mitarbeiter, darunter Kottke jeweils 2000 Akten zu 5 Dollar pro Stück, das waren 10 % seines Anteils. Als Apple wenige Wochen später an die Börse ging, waren die Aktien schon 22 Dollar pro Stück wert. Seitdem ist der Kurs um 28600 % gestiegen, die Anteile wären heute 12,6 Millionen Dollar wert, nimmt man den Börsenwert (es gab ja einige Aktiensplitts) so sind es sogar 660 Millionen Dollar.

So gesehen kann ich Kottkes Auftreten in der Sendung, er präsentiert ein T-Shirt, siehe Screenshot, indem er auf die fehlenden Aktienoptionen anspielt. Aber so ist dem ja nicht. Er konnte 1/12000 der Firma erwerben. Selbst wenn er die Aktien sofort wieder verkauft hätte, machte er einen Gewinn von 140.000 Dollar oder 340 % Gewinn.

Monte Davidoff

Was Daniel Kottke für Apple ist, das ist Monte Davidoff für Microsoft. Als Paul Allen und Bill Gates den Auftrag für Altair BASIC haben gründen sie eine Firma. Microsoft machte Bill Gates zu einem der reichsten Männer der Welt (einige Zeit lang sogar zum reichsten). Doch alleine schafften sie nicht das BASIC. Einen Teil, die mathematischen Routinen programmierte Monte Davidoff. Er studierte damals angewandte Mathematik und implementierte die Fließkommaarithmetik, die Gates und Allens Kenntnisse überstieg. Sie wurden später in Microsoft BASIC übernommen, das in den Achtziger auf Zig Computern eingesetzt wurde. 1977 verließ Davidoff die Firma, beendete sein Studium, arbeitete für Honeywell und Tandom und HP, seit 2000 ist er selbstständig. Beteiligt an Microsoft wurde er nie. Ich glaube von allen hier vorgestellten ist er der Unbekannteste. Es gibt nur wenige Fundstellen von ihm im Netz. Beschämend: Selbst wenn ich meinen eigenen Namen eingebe, finde ich mehr als dreimal so viele Treffer. Das hat er nicht verdient.

Tim Paterson

1980 arbeitet Tim Paterson bei Seatlle Computer Products (SCP), eine Firma die Hardware fertigt, darunter auch neue Prozessorkarten im S-100 Bus Format mit dem 8086 Prozessor. Nur verkaufen die sich ohne Betriebssystem nicht gut. Das Standard-Betriebssystem ist CP/M und der Hersteller Digital Research hat keine Pläne für eine Version für den 8086, obwohl dieser abwärts kompatibel zum 8080 war. Tim Paterson kauft sich ein CP/M 80 Handbuch und entwickelt eine eigene Version mit derselben API. Er selbst nennt das QDOS – Quick and Dirty Operation System, weil es „dreckig“ programmiert ist und er viele Prüfungen einfach unter den Tisch fallen lässt. Als einige Monate später Microsoft den Auftrag für PC-DOS erhalten, kaufen die dieses QDOS von SCP, verkaufen es mit Gewinn weiter an IBM und Paterson arbeitet nun bei Microsoft an dem Betriebssystem. Erst da erfährt er, für wen das Betriebssystem ist. PC-DOS kommt zwar rechtzeitig mit dem IBM PC raus, hat aber noch viele Bugs, der offensichtlichste – es nutzt von den beiden Seiten einer Diskette nur eine, obwohl die Laufwerke zwei Schiebköpfe für beide Seiten haben. Sehr bald gehen bei IBM viele Fehlerberichte ein und Paterson muss nachbessern. Paterson verlässt Microsoft schon 1982, als er die fehlerkorrigierte Version 1.1 von PC-DOS / MS-DOS fertiggestellt hat. Er bekommt von Paul Allen eine kostenlose DOS-Lizenz geschenkt. Als es 1986 in seiner neuen Firma Falcon Technologies nicht so gut läuft, kauf Microsoft Falcon Technologies komplett auf, nur um die Lizenz wiederzubekommen – es war eine unbefristete, nicht an Stückzahlen gebundene Lizenz für alle (auch zukünftige) Versionen von MS-DOS. Ein PC-Hersteller könnte mit dieser Lizenz Millionen an Lizenzgebühren an Microsoft sparen. Paterson bleibt bis 1998 bei Microsoft, macht sich dann erneut selbstständig und ist nach dem Interview derzeit Pensionär (er ist nun 61) aber das scheint ihn nicht auszufüllen und so bewirbt er sich bei Firmen, bekommt aber nach eigener Aussage keine Antwort. Auch Paterson ist eine tragische Figur, er hat MS-DOS in der ersten Version praktisch alleine entwickelt, mit dem Microsoft erst seine heutige Stellung einnehmen konnte (1980 machte Microsoft 8 Millionen Umsatz, Apple, zwei Jahre jünger, dagegen 200 Millionen). Selbst sein Chef Brock, der ebenfalls eine Lizenz für DOS von Microsoft hatte, hatte diese im gleichen Jahr für 925.000 $ verkauft – es war ein Vergleich während die Geschworenen beraten in einem Prozess, bei dem er Microsoft auf 60 Millionen Dollar verklagte, weil er die Lizenz nicht fpür 20 Millionen Dollar an Tandy verkaufen konnte. Doch selbst Brock, Chef von SCP hätte warten sollen – zu dem Zeitpunkt stand das Votum der Geschworenen bei 8:4 zu seinen Gunsten. Doch Paterson, der MS-DOS in der ersten Version praktisch alleine entwickelt hat, verdiente an diesem nicht mit. Noch tragischer er verließ Microsoft vor dem Börsengang und kam nach dem Börsengang zurück – bekam damit nicht mal wie jeder andere MS-Mitarbeiter Aktienoptionen.

Dan Bricklin und Bob Frankston

In der Dokumentation erscheinen auch sie als Verlierer. Bricklin und Frankston sind die Erfinder von Visicalc. Visicalc prägte einen Begriff: den der Killerapplikation. Es war das erste Spreadsheet und erschein zuerst exklusiv für den Apple II, weil nur dieser Computer über 32 KByte Speicher verfügte, die das Programm brauchte. Zumindest 1979 und 1980, dann gab es Visicalc auch für andere Computer. Visicalc ist sicher mit dafür verantwortlich, dass in diesen beiden Jahren der Umsatz von Apple von 7 auf 200 Millionen Dollar explodierte. Der Begriff Killerapplikation sagt aus warum: Mit Visicalc konnte ein Buchhalter so viel Arbeitszeit einsparen, dass sich damit alleine der Kauf eines Personalcomputers lohnte. In den Achtziger Jahren waren Spreadsheets die Killerapplikationen schlechthin. Visicalc wurde auch gut verkauft bis 1983 waren 700.000 Lizenzen vergeben worden. Der Anfangspreis für Endkunden waren 99 Dollar mit einem Anteil von 35,7 Dollar für Bricklin und Frankston. Bei Volumenlizenzen waren es 50 % des Preises, den die Programmautoren kassierten. Sie hatten ihre Vertriebsrechte an Software-Arts abgetreten. Software Arts war eine Programmierfirma, die Vertriebsfirma Personal Software die Visicalc vertrieb machte 1983 schon 60 Millionen Dollar Umsatz. Angeblich haben Frankston und Brickllin keinen Cent davon gesehen, das erscheint doch sehr unwahrscheinlich schließlich haben sie über viele Jahre weitere Versionen für CP/M und MS-DOS programmiert. Visicalc verlor ab 1984 rapide an Bedeutung als Lotos 1-2-3 erschien. Dieses Spreadsheet war deutlich schneller als Visicalc.

Ich glaube nicht das Frankston und Bricklin Verlierer sind, das sie keinen Cent verdient haben, bezeiht sich meiner Meinung nach auf etwas anderes – als Visicalc erschien, konnte man den Algorithmus eines Programmes nicht patentieren. Das war erst 18 Monate später nach einer Gesetzesänderung möglich. So bekamen Franston und Bricklin nie Lizenzeinnahmen. Lotos war da intelligenter, sie ließen einiges an Lotus 1-2-3 patentieren, sodass als Software Arts einen Klon namens "Ontio 2-5-9" veröffentlichen wollten, Lotus die erfolgreich verklagten.

Kleine Notiz am Rande: Bevor der große Run auf Visicalc einsetzte, konnte Apple die Rechte kaufen. Mike Markulla, dritter Chef neben Jobs und Wozniak, war die 1 Million Dollar die gefordert wurden zu viel. Ich denke das hat er noch bereut.

Ed Roberts

Er gehört eigentlich zur ersten Reihe und taucht nur heute in keiner Dokumentation auf, weil er schon verstorben ist. Aber er hat den Mikrocomputer, den Altair 8800 erfunden. Die Geschichte ist relativ lang und nimmt in meinem Buch und auf meiner Webseite ein ganzes Kapitel ein. Nur in der Kürze: Ed Roberts Firma MITS fertigt Bausätze für Taschen- und Tischrechner und gerät 1974 in Finanznöte, als Texas Instruments alle Anbieter dieser Geräte preislich unterbietet. Er erfährt vom ersten Mikroprozessor dem 8080 von Intel und konstruiert als letzte Rettung für seine Firma einen einfachen Rechner um den Prozessor und kann seine Bank überreden, ihm einen letzten Kredit zu geben. Der Bausatz wird in der Januar (1975) Ausgabe von Popular Electronics vorgestellt und rettet seine Firma, er bekommt bald von Tausenden von Leuten Geld zugeschickt, obwohl er erst mehrere Monate später liefern kann. MITS bekommt bald Konkurrenz von Nachbauten und hat Probleme vieles, was er ankündigt zu liefern. Schon 1977 geht es mit seiner Firma bergab, auch weil er versäumt hat, sich der Zeit anzupassen. Im gleichen Jahr erscheint der Apple II und MITS fertigt immer noch Bausätze mit Kippschaltern und LED als Ein-/Ausgabemedium. Er schafft aber den Absprung rechtzeitig, verkauft seine Firma für 2 Millionen Dollar (persönlicher Anteil), züchtet einige Jahre lang Schweine und beginnt dann ein Medizinstudium um den Rest seines Lebens als Mediziner zu arbeiten.

Richtig gescheitert ist er also nicht, vor allem wenn man bedenkt, dass die 2 Millionen heute einem Wert von rund 7 Millionen Dollar entsprechen. Aber MITS hätte als die erste Firma die Industrie prägen können, das tat Roberts nicht, zum einen, weil er seinem Konzept zu sehr verhaftet war und er alles alleine machen wollte und niemanden partizipieren lassen wollte oder auch nur delegieren konnte. Das war die Ursache für viele Verzögerungen bei MITS, die erst zur Gründung von Konkurrenz führte (IMSAI brachte ihren 8080 heraus, weil MITS keine Altairs liefern konnte und sie für einen Kunden die Rechner brauchten) und er arbeitete auch nicht mit anderen Firmen zusammen so beschimpfte er Fremdhersteller als „Parasiten, die von seiner Idee lebten“ und verweigerte sich einer Standardisierung des Busysstem, das trotzdem als S-100 Bus ein Standard wurde.

7.7.2017: Buchkritik: Wernher von Braun: Bemannte Raumfahrt

Eines der tollen Dinge am Internet ist, das man viel einfacher als früher an antiquarische Bücher kommt, also Bücher, die nicht mehr verlegt werden. Für mich sind diese antiquarischen Bücher aus zwei Gründen wichtig. Zum einen sind sie wichtige Zeitdokumente, weil in vielen nicht nur Technik beschrieben ist. Sondern sie geben auch oft den Zeitgeist wieder oder auch wie man sich damals die Zukunft vorstellte. Das mit der Erfahrung, wie es tatsächlich gekommen ist, ist immer interessant, bisweilen auch amüsant.

Der zweite Grund ist, das alte Bücher oft mehr über Technik enthalten als neuere oder aktuelle. Angeblich wird die Menschheit ja immer schlauer, doch zumindest bei Raumfahrtbüchern stelle ich den gegenteiligen Trend fest. Es gibt immer mehr Erdzählbücher und immer weniger technische Bücher. Das ist nicht nur auf die Bücher beschränkt. Schaut man nach aktuellen Informationen über Trägerraketen oder Raumsonden, so gestaltet sich das schwieriger, als über alte Missionen etwas zu finden. Das Informationsoptimum lag vor als das Internet noch ein junges Medium war so von 1995 bis 1999. Damals wurden auch tiefer gehende technische Informationen veröffentlichten. Die FAQ behandelten nicht nur einfache Fragen, sondern gingen ebenfalls in die Tiefe. Beispiele für Missionen sind z. B. Pathfinder, Galileo, Cassini. Einen mehrteiligen Bericht wie über Cassini oder Galileo über etwas Aktuelles wie OSIRIS-Rex oder BepiColombo zu schrieben ist heute unmöglich. Ich vermute, damals gab es noch keine professionelle Abteilung für den Webauftritt, also hat man von den Projekten die Leute das selbst machen lassen. Sobald man Profis ran lässt bekommt man zwar einen optisch viel besseren Webauftritt, dafür geben die nur das weiter was sie selbst verstanden haben und das ist dann eben bedeutend weniger. Kurzum: Optik x Informationsgehalt = Konstant.

Aber zurück zum Buch „Bemannte Raumfahrt“ von Wernher von Braun. Wernher von Braun hat relativ wenige Bücher selbst geschrieben, meist war er nur Coautor und wenn man seinen Namen bei Amazon eintippt findet man mehr über ihn als von ihm. Dieses Buch entstand aus einer Sammlung von Aufsätzen die er für die Zeitschrift Popular Science geschrieben hat. Der Stand der Artikel ist vom Jahr 1967. Zwei Ereignisse die erwähnt werden sind der Brand von Apollo 1 und der Jungfernflug der Saturn V, beide fanden 1967 statt. Wie bei einer Sammlung von Artikeln anzunehmen, deckt das Buch nicht den Themenbereich komplett ab, vielmehr bekommt man einen Einblick in einzelne Aspekte der Missionen. Wernher von Braun hat es verstanden die einzelnen Artikel gut thematisch zusammenzufassen, sodass man dies als Laie nicht merkt. Als Fachkundiger bemerkt man aber die Lücken. Das Buch soll ja auch kein Lehrbuch sein, sondern wendet sich an den nicht vorgebildeten Leser. So findet man kaum Formeln, dafür Handskizzen, was mir bisher bei keinem anderen Buch über Weltraumfahrt vorkam. Doch diese Skizzen sind gut, erklären viel.

Ich kenne mich ja schon ein bisschen über Raumfahrt aus, doch selbst ich konnte noch was dazulernen. So, wie die Kameras funktionieren die man bei den ersten Saturn-Flügen in den ersten Stufen mitführte und später geborgen hat. Die haben auch die Stufentrennung der S-IB von der S-II gefilmt. Eine Szene, die man aus Berichterstattung von Apollo gut kennt. Ebenso konnte ich dazu lernen wie Bahnverfolgung der Saturn funktionierte und das Bodennetzwerk bei Apollo organisiert wird.

Mir gefiel vor allem der erste Teil sehr gut. Wernher von Braun beschreibt allgemeinverständlich und gut die Funktionsweise von Raketen, zu lösende Probleme oder wie die Lenkung funktioniert. Hätte er sich auf diesen Themenbereich beschränkt und mehr Themen angesprochen, man könnte das Buch heute noch als Einführung in die Raumfahrt empfehlen. Das ist aber nur ein Teil des Buches. Es gibt noch drei weitere. Der zweite Teil beschäftigt sich mit der bemannten Raumfahrt. Er ähnelt noch dem ersten Teil, nur eben übertragen auf bemannte Raumfahrt. So erfährt man, wie Brennstoffzellen funktionieren und der Weltraumanzug aufgebaut ist. Im dritten Teil über die Landung auf dem Mond, geht es dann schon um die Zukunft. Diese wird beschrieben und es werden Ausblicke über erweiterte Mondmissionen gegeben. Von diesen Projekten, die bis hin zur Mondstation gingen, wurde nur das Mondmobil umgesetzt. Der vierte Teil geht dann auf die Marsexpedition ein, die 1986 stattfinden sollte, sowie die Zukunft. Es werden die nukleare Rakete und Photonenrakete beschrieben, inklusive ihrer Probleme bei der praktischen Nutzung.

Natürlich wirft Wernher von Braun einen Blick auf die Zukunft. Er prognostiziert die Weltraumfähre (englisch „Space Shuttle – die direkte wörtliche Übersetzung und das zwei Jahre bevor die ersten Planungen begannen) und macht Voraussagen, was man mit einem um den Faktor 10 reduzierten Startkosten alles anfangen könnte. Ich bin ja schon im Blog drauf eingegangen – man sieht die Zukunft mit der Perspektive von Jetzt. So arbeiten in von Brauns Zukunft Astronauten im All und führen dort Montagearbeiten aus. Damit sie das effektiv können natürlich unter künstlicher Schwerkraft. Auch das gehört zu dem Reiz historischer Bücher. Man bekommt eine Ahnung welche euphorische Stimmung damals herrschte - verständlich. Als das Buch geschrieben wurde, erreichte das Apollo-Budget seinen Zenit. Selbst wenn Wernher von Braun nur annimmt, das dieses Budget dauerhaft erhalten bleibt, dann wären alle diese Visionen umsetzbar, denn das sind zehnmal mehr Mittel als die NASA heute hat. Damit könnte man auch heute eine Fabrik im Weltraum aufbauen. Die Mars Expedition, die vor 21 Jahren stattfand, wäre dann auch ein Klacks.

Mein Fazit

Ich kann das Buch jedem der sich für Raumfahrt interessiert, uneingeschränkt empfehlen. Es kostet heute antiquarisch unter 10 Euro, dafür bekommt man 270 Seiten mit Informationen die man nicht überall findet. Eine Lektüre die leicht lesbar ist, die auch Eingeweihten in manchen Kapiteln noch neues vermittelt. Laien profitieren von der guten Erklärung, wie Raketen funktionieren und man bekommt ein Gefühl für die Stimmung in dieser Zeit.

10.7.2017: Noch eine Berechnung : Sonnensegel vs. Ionenantrieb ins äußere Sonnensystem

Nachdem ich mich letztes Mal mit dem Vergleich ins innere Sonnensystem beschäftigt hat heute ein Vergleich der beiden Systeme beim Flug ins äußere Sonnensystem. Ziel soll es sein 2000 kg auf eine Fluchtbahn aus dem Sonnensystem zu befördern. Startmasse ist wie beim letzten Mal 5.500 kg, die Nutzlast einer Ariane 5 ECA auf eine Fluchtbahn (theoretisch noch höher, doch ich lasse etwas Luft, warum, das zeigt sich noch).

Weitere Nebenbedingungen: Die Fluchtgeschwindigkeit ist lokal zu berechnen – In der Erdumlaufbahn sind es 42,1 km/s (12,3 km/s über der Geschwindigkeit der Erde) aber sie nimmt ab, wenn man nach außen geht, und nimmt zu, wenn man weiter innen im Sonnensystem ist.

Für Sonnensegel soll wieder gelten: Flächenmasse Segel 10 g/m², Strebenmasse: 70 g/m. 90 % Segelanteil an der Gesamtmasse (Rest Behälter und entfaltmechnaismus).

Bei Ionentriebwerken soll gelten: Tankmasse 20% des Inhalts, Solargenerator mit 85 W/kg Leistungsdichte (konservative Annahme – Werte von Dawn). Bei den Triebwerken probiere ich vorhandene aus. Die Strukturmasse soll 340 kg betragen – die gleiche wie beim Sonnensegel.

Sonnensegel

Die erste Überraschung: Mit den Daten erreicht man keine Fluchtbahn, zumindest nicht in brauchbarer Zeit – nach zehn Jahren befindet sich das Sonnensegel auf einer 586 x 1224 Millionen km Bahn. Schon die Bahn zeigt das Problem an – das Segel entfernt sich von der Sonne und so wird es immer langsamer beschleunigt. Man kann dies optimieren, indem man das Sonnensegel nur bis zu einer bestimmten Distanz betreibt. Wenn man es bei 250 Millionen km Entfernung senkrecht zur Sonne stellt, so erreicht man in 10 Jahren eine 193 x 8430 Mill. Km Bahn, aber eben keine Fluchtgeschwindigkeit.

Anstatt nun das Sonnensegel zu „tunen“, was unfair wäre, da ich beim Ionentriebwerke ja auch konservative Werte annahm, habe ich einen Trick angewandt. Die 5.500 kg sind ein konservativer Wert für die Nutzlast. Ariane 5 hat schon 6000 kg auf eine Fluchtbahn gebracht (Herschel und Planck) und das war 2009, als die Nutzlast noch um die 10 t in den GTO betrug. Inzwischen ist sie bei 10,9 t angekommen. Ariane 5 müsste 5,5 t auf eine Bahn mit einem Perihel in Venusentfernung bringen können. Das bedeutet: zuerst einmal ist das Segel einige Monate näher an der Sonne und kann so Geschwindigkeit – beim Durchlaufen des Perihels hat es die doppelte Beschleunigung – aufnehmen. Mit einem Perihel in 104 Millionen km Entfernung und einer Begrenzung der Arbeit bis in 190 Millionen km Entfernung schafft es das Sonnensegel dann tatsächlich in 9 Jahren 195 Tagen die Fluchtbahn zu erreichen.

Ionenantriebe

Bei den Ionentriebwerken ist die Berechnung deutlich schwieriger. Das Grundproblem ist eigentlich das gleiche – man sollte die Fluchtgeschwindigkeit möglichst schnell erreichen, ohne eine spiralförmige Bahn zu erreichen. Wenn das der Fall ist, dann sind Freiflugphasen einzuscheiben.

Man muss nun den spezifischen Impuls variieren – ich tue dies indem ich verschiedene Triebwerke, die existieren durchrechnen, doch das hat Einflüsse auf andere Systeme. Der spezifische Impuls legt die Treibstoffemnge fest und die wiederum geht von der Gesamtmasse ab, der Rest bleibt dann für Triebwerke und Struktur (kleinster Teil) und Solargenerator (größerer Teil). Zudem ist der Treibstoffverbrauch auch von der Bahn abhängig, je schneller man die Fluchtgeschwindigkeit erreicht wird, desto kleiner ist er. Alles hängt also voneinander ab. Ich habe mich daher entschlossen, vorhandene Triebwerke auszuprobieren:

Dies ergibt:

Idealer Antrieb

Die Annahmen sind insofern trotz realer Antriebe nicht wirklichkeitsgetreu, weil ich immer "ganze" Triebwerke nehme, also wenn man z.B. 100 kW Leistung hat und ein Triebwerk braucht 5,5 kW so errechnen sich 18,18 Triebwerke, die ich auf 18 abrunde. Daher fällt ab einer Distanz von der Sonne und abnehmender Leistung erst ein Triebwerk weg, dann zwei etc. In der Realität sind diese aber regelbar, wenn auch meistens unter Effizienzverlust. In der Praxis wird man daher eines oder mehrere Triebwerke herunterregeln. Damit kann man schneller die Fluchtbahn erreichen.

Zwischenbilanz

Beide Antriebe schaffen die Fluchtgeschwindigkeit, aber nur mit aufwendiger Missionsplanung. Die Reserven sind beim Ionenantrieb höher, vor allem wenn man bedenkt, dass ich beim letzten HIPEP über 100 kW benötigte elektrische Leistung auf der Basis der kleinen Flügel von Dawn und nicht modernen entfaltbaren Arrays modelliert habe. Das grundsätzliche Problem beider Antriebe ist, dass sie rasch in eine Entfernung gelangen, in denen die abnehmende Sonneneinstrahlung die Beschleunigung herabsetzt. So resultieren immer weitere Ellipsen mit immer höherer Umlaufzeit – die Mission dauert dann extrem lange. Bei Ionenantrieben kommt hinzu, dass man für die mindestens 12,3 km/s Geschwindigkeitsänderung für eine Fluchtbahn (in der Realität durch Anhebung der Bahn noch mehr) bei niedrigem spezifischen Impuls viel Treibstoff braucht, der dann wieder wenig Masse für die Solarzellen und Triebwerke übrig lässt. Bei hohem spezifischen Impuls ist der Treibstoffbedarf geringer, aber auch der Schub und diese Antriebe brauchen daher sehr lange um die Fluchtgeschwindigkeit zu erreichen.

Nur bis Jupiter.

Man wird in der Realität daher wie bisher Jupiter als Sprungbrett nutzen. Es gibt bei direkten Flügen alle 13 Monate ein Startfenster zu Jupiter, das ist viel günstiger als zu Venus oder Mars. Ähnliche Intervalle sind auch bei Ionenantrieben zu erwarten.

Hauptvorteil ist des Umwegs über Jupiter ist, dass man nur 8,7 km/s erreichen muss. Daher braucht man weniger Treibstoff und Ionenantriebe mit niedrigem spezifischen Impuls können ihre Vorteile ausspielen. Nimmt man einen spezifischen Impuls von 35000 an, so kann man, wenn man wieder den Umweg über das innere Sonnensystem nimmt, in 1 Jahr 42 Tagen eine Bahn zu Jupiter erreicht haben. Eine Freiflugphase ist nicht nötig.

Auch das Sonnensegel schafft es unter gleichen Bedingungen in 8 Jahren 168 Tagen ohne „Freiflugphase“ (ohne Beschleunigung). Beschränkt man den Betrieb auf unter 137 Millionen Km Entfernung, so schafft man es in der halben Zeit – 4 Jahre 165 Tage.

Trotzdem: Das Sonnensegel ist deutlich unterlegen. Dies wird auch nicht besser werden, denn für eine Verbesserung des Ionenantriebs gibt es in der Entwicklung – leichte entrollbare oder kompakt gefaltete Solarzellen sind in der Erprobung. Die ATK Flex-Arrays sind heute schon verfügbar (werden z. B. Bei den Cygnus genutzt und Phoenix hatte auch welche) und bis 30 kW skalierbar. Triebwerke mit höherem spezifischen Impuls, aber auch höherem Wirkungsgrad absolvieren Testläufe. Bei Sonnensegeln ist schon der Sprung von bisher realisierten Flächen von 100 bis 400 m² zu den hier benötigten 20.000 m² enorm. Ich glaube da wird noch einiges an Entwicklungsarbeit zu tun sein. Die 10 g/m² Flächengewicht sind heute schon ein guter Wert, er ist nur wenig drückbar. 8 g/m² habe ich in Reporten gelesen. Richtig interessant wird es erst, wenn man dazu übergeht, das Trägermaterial (meist Mylar oder Kapton) wegzulassen. Auf der Erde wird das kaum möglich sein, weil die dünne Aluminiumschicht, die man aufgedampft, dann nicht mehr stabil ist, doch im Orbit wäre das mit einem nicht UV-beständigen Kunststoff denkbar. Er würde zerfallen und damit die Masse drastisch absinken. In der Theorie denkbar, in der Praxis wird man wohl einige Tests machen müssen. „Verdampft" das Trägermaterial nicht gleichmäßig, so wird das Sonnensegel steuerungstechnisch wohl kaum beherrschbar, da die Masse der Reste die der reflektierenden Schicht weit übersteigt – ohne Trägermaterial würde das Flächengewicht von 10 auf 0,27 g/m² sinken, schon kleine Reste der ursprünglichen Folie erzeugen daher eine starke Unwucht. Würde man das allerdings erreichen - es wäre der ultimative Antrieb. Die Geschwindigkeit zu Jupiter wäre in 30 Tagen erreicht.

Allerdings ist das nur theoretisch. Zum einen wäre das Segel enorm groß (etwa 1,6 km²) und zum Anderen wiegt es ja nur so wenig, wenn die Trägerschicht weg ist, ohne wiegt es aber 40-mal mehr – 220 anstatt 5,5 t und damit nicht transportierbar den es muss mit Trägerschicht in den Orbit gelangen und entfaltet werden.

12.7.2017: Zum Kuiper Belt und in die Heliosphäre

Ich greife heute ein Thema, auf das ich aber bisher nur schätzungsweise berechnen konnte, inzwischen kann ich durch Verbesserungen meines Programmes genau zu berechnen. Es geht um eine Sonde, die möglichst schnell möglichst weit von der Sonne entfernt sein sollte.

Früher habe ich als wichtigsten Einsatzzweck die Erforschung der Heliopause genannt, also der Region, in der der Sonnenwind in das intergalaktische Medium übergeht. Diese Region haben die Voyagersonden inzwischen erreicht. Sie liegt etwa 150 AE (rund 22.500 Mill. km) von der Sonne entfernt. Für eine gute Vermessung braucht man mindestens drei Sonden: eine die in Bewegungsrichtung der Sonne gestartet wird, eine entgegengesetzt und eine senkrecht dazu.

Inzwischen gibt es noch eine zweite mögliche Einsatzmöglichkeit die Passage eines Kuipergürtelobjektes. Diese liegen auch in dieser Entfernung.

Das Problem: Voyager brauchte zwei Swing-Bys und rund 30 Jahre, um dorthin zu kommen. Ein Start mit einer Atlas V für eine Nachfolgesonde dürfte heute nur für eine Sonde die Teilchendetektoren hat kaum finanzierbar sein, auch wenn als Plus vielleicht noch ein naher Vorbeiflug an einem KBO herausspringt. Ein solver Träger kostet über 200 Millionen Dollar, dazu käme noch eine PAM-D Oberstufe.

Also suchte ich nach billigeren Alternativen und einem schnelleren Weg.

Gehts mit der Vega?

Als erstes habe ich als Alternative eine Sonde zuerst einmal mit der Vega gestartet. Die hat nur eine Nutzlast von 2.400 kg in einen 400 km hohen kreisförmigen Orbit. So muss man Ionentriebwerke einsetzen, um die Sonde überhaupt zu Jupiter zu bekommen. Die Vega könnte maximal 500 kg auf eine Fluchtgeschwindigkeit bringen und braucht dazu noch ein weiteres Modul.

Das Sondengewicht habe ich zu 700 kg festgelegt. Das entspricht dem Gewicht von Voyager ohne Hydrazintank. Die Lageregelung wird von den Ionentriebwerken durchgeführt. Statt den MMRTG werden GPHS-RTG mitgeführt, die mit 570 W eine etwas höhere Leistung haben, aber das gleiche Gewicht.

Das Trockengewicht des Ionenantriebsmoduls orientiert sich nach dem verbrauchten Treibstoff, der erst nach Simulation feststeht. Ich errechnete einen Verbrauch von 945 kg bei einem hohen spezifischen Impuls von 44.000 m/s. Dawn hatte 425 kg Treibstoff bei einem Trockengewicht (Tanks, Strukturen, Triebwerke) von 136 kg. Das entspricht auf 945 kg hochskaliert einem Trockengewicht von 303 kg. Dazu kommen noch die Solararrays, hier Flexarrays von ATK mit je 5 m Durchmesser für 30 kW Anfangsleistung. Diese wiegen bei 106 W/kg BOL weitere 283 kg. Etwa 100 kg kommen noch für Strukturen hinzu, bei Dawn war das Antriebssystem ja in die Sonde integriert. Das lässt dann eine Restmasse von 765 kg zu:

System

Masse

Treibstoff

945 kg

Tanks + Triebwerke

303 kg

Solararrays:

283 kg

Strukturen

100 kg

Sonde:

769 kg

Die 69 kg über 700 kg Masse werden auch genutzt, und zwar für einen Niedrigenergieantrieb. Auch dies ist ein Ionenantrieb. Doch er arbeitet nur mit kleinem Schub. Der dahinter stehende Gedanke: Die Stromversorgung muss ausgelegt sein, bis die Sonde nach 40 Jahren eine hohe Distanz erreicht. Bis dahin ist der Strom bei RTG aber auf die Hälfte abgefallen. So kann man 35 Jahre lang den überflüssigen Strom (im Mittel ein Viertel des Gesamtstroms) für ein kleines Ionentriebwerk nutzen. Bei 570 W Anfangsleistung sind dies 140 W, die bei dem bisher jetzt höchsten spezifischen Impuls kann man bei dieser Strommenge in 35 Jahren 43 kg Treibstoff verbrauchen. 20 weitere kg benötigt man dann für Tanks und Triebwerk.

Die Mission gliedert sich in vier Phasen:

Dies habe ich in einem ersten Ansatz durchgerechnet:

Ich nehme mal als Vergleich Voyager, die ist heute (14552 Tage nach dem Start) in 20.807 Mill. km Entfernung. Zum selben Zeitpunkt (11947 Tage nach der Passage von Jupiter) wäre diese Sonde ohne Nachbeschleunigung in 15.843 Millionen km Entfernung. Zum Nachteil gerät hier die lange Zeit vor dem Jupiter-Flyby (5,5 Jahre gegenüber 1,5 Jahre). Zudem ist die Raumsonde langsamer als Voyager 1 unterwegs (14.435 m/s relativ zur Sonne – Saturn hat die Sonde nochmals etwas beschleunigt. Voyager 2 ist übrigens langsamer unterwegs, sie wurde etwas abgebremst.

Daher muss es die Nachbeschleunigung herausreisen.

Nach dem Vorbeiflug von Jupiter wird das Ionenantriebsmodul abgetrennt um Gewicht zu sparen und die 50 kg Xenon ab Jupiter genutzt um die Sonde weiter zu beschleunigen. Nach 34 Jahren sind auch diese 50 kg Treibstoff verbraucht. Das erhöht die Geschwindigkeit deutlich. Nun erreicht die Sonde 14.552 Tage nach dem Start eine Distanz von 18.847 Mill. km bei einer Geschwindigkeit von 18.915 m/s. Das ist nicht so weit wie Voyager 1, aber weiter als Voyager 2 (17.176 Mill. km) und die Sonde ist rund 2 km/s schneller unterwegs und wird so aufholen.

Das bedeutet, man kann das Ziel erreichen. Allerdings ohne Sicherheitsmargen. Das ist also mit der heißen Nadel gestrickt, obwohl ich das leistungsfähigste Ionentriebwerk genutzt habe (im Sinne vom hohem spezifischen Impuls um den Treibstoffverbrauch zu reduzieren). Das ist aber ein Treibwerk der 25 kW Klasse ob man es auch 100-mal kleiner bauen kann? Eventuell klappts mit etwas mehr Reserven mit der Vega-C die ja eine um 50% höhere Nutzlast haben wird.

Die Abtrennung des separaten Ionenantriebsmoduls könnte früher erfolgen und dann schon mit dem Betrieb des Low-Energie Ionentriebwerks begonnen werden. Das wäre eine Optimierung, doch wegen fehlender Reserven habe ich dies nicht untersucht.

Option 2: Sojus

Option 2 nutzt den nächstgrößeren Träger, eine Sojus 2B. Diese kann bei 8,3 t Nutzlast in den LEO transportieren. Das erlaubt nicht nur den Jupiter schneller zu erreichen, sondern es lässt einen weiteren Kniff zu. Anstatt Jupiter in 250.000 km Entfernung zu passieren, nähere ich mich bis auf unter 2000 km Entfernung an die Wolkenobergrenze. Schon in 2000 km Entfernung zündet man eine PAM-D welche die 799 kg schwere Sonde (30 kg für den Adapter) welche die Sonde um 2981 m/s beschleunigt. Der springende Punkt: Diese Geschwindigkeit addiert sich zur Spitzengeschwindigkeit von 60121 m/s. Nach dem Energieerhaltungssatz bleiben so im Unendlichen aber nicht 2981 m/s, sondern 19165 m/s übrig.

Aber fangen wir mit dem Ionenantriebsmodul an. Abzüglich der Sonde und der PAM-D bleiben 5300 kg für dieses. Mit etwas Spielen kommt man auf folgende Werte:

 

System

Masse

Treibstoff

2.670 kg

Tanks + Triebwerke

840 kg

Solararrays:

1.495 kg (160 kW).

Strukturen

300 kg

Sonde+ PAM-D

3.000 kg

Gesamt:

8.300 kg

Nach 143 Tagen hat man die Erde verlassen, nach weiteren 3 Jahren 10 Tagen hat man Jupiter erreicht (Bahn 177,1 x 778 Mill. km). Es geht dank etwas größeren Solararrays etwas schneller. Damit hat man auch 13.304 anstatt 12.536 Tagen nach der Passage Zeit, um Voyagers heutige Position zu erreichen. Ich komme ohne Nachbeschleunigung nach 14552 Tagen auf eine Entfernung von 33.602 Mill km bei 29.518 m/s. Mit Nachbeschleunigung sind es 35.092 Mill. Km und 335.02 m/s. Das ist eine 50 % höhere Distanz als sie Voyager 1+2 erreichen. Macht man eine Prognose bis zum Ende der Voyager Mission (2025) so kann man sogar eine Distanz von 43 Millionen km erreichen. Voyager wird nur 25 Millionen km erreichen.

Science Benefit

Durch die Passage an Jupiter gibt es wie bei den Voyagersonden die Möglichkeit Jupiter und vor allem seine Monde zu untersuchen. Dank kohlefaserverstärkten Gehäusen kann man die Kameras etwas größer als bei Voyager dimensionieren. Voyager hatte bei der Telekamera 22,2 kg Masse und eine Auflösung von 9,1 Mikrorad, bei New Horizons hat die Kamera LORRI eine Auflösung von 5 Mikrorad bei 8,8 kg Masse. Die Weitwinkelkamera von Voyager ist überflüssig, sie liefert nur während weniger Tage vor der Begegnung von Jupiter Bilder. Allokiert man ihre Masse zusätzlich zur Telekamera so wäre ein 33-cm-Teleskop mit einer Auflösung von 1,7 Mikrorad möglich – anders als bei New Horizons kann die Auflösung beugungsbegrenzt sein, da die Kamera ja nur bei Jupiter bei 50-mal mehr Licht arbeiten muss. Ein solches Teleskop ist mehr als 5-mal besser als Voyagers Kamera. Es macht aus 58.000 km Entfernung Aufnahmen mit 100 m Auflösung und wäre daher ideal zum Erforschen der galileischen Monde. Man wird allerdings wegen der vorgegebenen Passagedistanz nur einen Mond in mittlerem Abstand und die anderen im größeren Abstand passieren. Trotzdem würde man mit drei Sonden einen Teil der globalen Kartierung nachholen können, die bei Galileo wegfiel. Bei den typischen Abständen die Voyager hatte von rund 100.000 bis 200.000 km erhält man Aufnahmen von 200 bis 400 m Auflösung. Heute hat man globale Panoramen mit > 1 km Auflösung. Als vorrangiges Ziel, wenn es im Flugplan möglich ist, stufe ich Io ein. Io ist der einzige Mond im Sonnensystem mit aktiven Vulkanen. Seine Oberfläche ändert sich dauernd und er ist Jupiter so nah, das ihn andere Missionen meiden, um nicht zu stark der Strahlung ausgesetzt zu sein.

Mehr noch: Das ionenantriebsmodul, das man zum Transfer zu Jupiter genutzt hat und das man vorher abtrennte, kann man ebenfalls an einem Mond vorbeifliegen, diesmal sogar recht nahe, da man auf die Bahn nach der Passage nicht achten muss. Bei Jupiter haben die Solarzellen immer noch >1 kw (Vega-Lösung) bzw. >4 kW Leistung. Das reicht, wenn man eine kleine Antenne anbringt für eine komfortable Datenrate zur Erde, wenn man leistungsfähige Sender nutzt. Jedes dieser Module kann beim Vorbeiflug eine Hemisphäre eines Mondes daher im Detail erfassen und die Daten zuerst zwischenspeichern und über die nächsten Tage zur Erde senden. Dies wird man wahrscheinlich für Ion und Europa nutzen die man sonst wegen ihrer Jupiternähe nur selten passiert. Auch JUICE sieht nur wenige Europavorbeiflüge und keinen Iovorbeiflug vor.

Die Sonden mit nachträglicher beschleunigung können ihre Geschwindigkeit nach der Passage um über 4 km/s ändern. Das erlaubt es, danach noch ein Kuipergürtelobjekt zu passieren. Wie bei New Horizons wird man die Daten an Bord speichern. Da die Datenrate mit steigender Entfernung stark abnimmt, wird man auf entfaltbare Antennen setzen. Voyagers 3,66 m Antenne wog 50,2 kg, die 4,7 m Antenne mit Gitternetz-Rippentechnik von Galileo dagegen 34 kg bei 4,7 m Durchmesser. Damit wäre bei gleicher Masse eine 5,8 m Antenne möglich, die die Datenrate von New-Horizons immerhin noch in 16 Milliarden km Entfernung ermöglicht. Diese Mission ist ein guter Vergleich für einen KBO der sogar meist kleiner als Pluto ist. Wie bei New Horizons würde man die Daten an Bord speichern und später übertragen. Das ermöglicht es auch viele hochauflösende Bilder bei Jupiter zu gewinnen, da sie schnell abgespeichert sind. Voyager brauchte noch 48 s um ein Bild zu übertragen. In der Zeit bewegte sie sich um 700 km weiter. So kann man leicht errechnen, dass sie schon nach 30 Bildern den doppelten Passageabstand zu Io (20.000 km) erreichte und die Auflösung auf die Hälfte abfiel.

Der Übergang vom X-Band zum Ka-Band könnte noch etwas mehr herauskitzeln. Sein Hauptnachteil, dass es wetterbedingt nur zu 80% der Zeit verfügbar ist, spielt da man die Aufzeichnung beliebig oft wiederholen kann keine Rolle.

Die Bilder links informieren über die wesentlichen Phasen der Mission mit der Sojus – Heraufspiralen aus der Erdbahn, Ionenantrieb in Sonnennähe, antriebsloser Flug zu Jupiter und Vorbeiflug heliozentrisch und planetozentrisch. Bei der planetozentrischen Sichtweise fällt auf, wie die Sonde rechts nahezu gerade den Planeten verlässt – sie hat auch kräftig Geschwindigkeit aufgenommen


 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99