Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 604: 9.11.2020 -

9.11.2020: Warum mein Lieblingsteleskop ein Newton ist

Langsam rückt ja wieder Weihnachten näher und dann weiß ich schon das ich wieder etliche Mails bekomme, in denen ich für Empfehlungen für ein Teleskop gefragt werd. Ich habe früher viel mit dem Teleskop beobachtet, inzwischen stehen die Geräte aber nur noch rum, aber es gibt eine ganze Sektion auf der Website mit Grundlagenwissen. Obwohl dort auch steht, dass ich keine konkrete Kaufberatung mache, einfach weil es so viele Teleskope heute auf dem Markt gibt, selbst wenn man sich nur auf eine Öffnung und Typ beschränkt, kommt man leicht auf ein Dutzend Modelle. Die müsste ich ja alle kennen, um eine Empfehlung zu geben. Aber ich will das mal heute ergänzen um meinen Vorschlag zumindest für die Bauart, welche mein Lieblingsteleskop haben sollte.

Wichtige Größen

Zwei Größen charakterisieren den optischen Tubus, also das eigentliche Teleskop (die Montierung ist zwar genauso wichtig, wird leider aber meistens stiefmütterlich behandelt). Das eine ist die Öffnung D, das ist der Durchmesser der Optik. Sie ist verantwortlich für das Lichtsammelvermögen, aber auch die maximale sinnvolle Vergrößerung, die man erreichen kann, wobei diese sich Angabe relativ zum Auge bezieht. Ich schriebe sinnvolle Vergrößerung, weil man natürlich sehr stark vergrößern kann, doch zu jeder Öffnung gehört auch eine Auflösung, meist als Bogensekunden, also ein Winkelmaß definiert. Wird zu stark vergrößert, so wird das Bild zunehmend unschärfer. Faustregel: sinnvolle Maximalvergrößerung mit optimaler Schärfe = Optikdurchmesser in Millimeter. Maximale Vergrößerung, mit tolerierbarer Unschärfe: 1,5 x Optikdurchmesser in Millimeter. Für ein Teleskop mit einem 80 mm Spiegel oder einer 80 mm Linse also 80-fach und 120-fach.

Brennweite: Die Brennweite F ergibt sich aus der Beugung der Lichtstrahlen durch geschliffene Linsen oder Spiegel. Je länger die Brennweite ist, um so kleiner ist der Himmelsausschnitt, den man sieht. Die Brennweite kennt man auch von Spiegelreflexkameras. Auch hier wird der Ausschnitt, den man sieht, immer kleiner je höher die Brennweite. Bei allen Teleskopen gilt, dass eine lange Brennweite geringere optische Fehler, die sich durch die Brechung und Reflexion der Lichtstrahlen ergeben, verringert.

Aus diesen beiden Werten leiten sich weitere Kenngrößen ab. Das Verhältnis F/D ist die von der Fotografie bekannte Blende, bei Teleskopen spricht man vom Öffnungsverhältnis. Je niedriger es ist, desto mehr Licht fängt das Teleskop ein, desto heller ist das Bild und desto kürzer bei einer Aufnahme die Belichtungszeit. Aus dem Verhältnis F zu Okularbrennweite errechnet sich sowohl die Vergrößerung wie der beobachtbare Himmelsausschnitt. Die Okulare kann man auswechseln, so kommt man zu verschiedenen Vergrößerungen. Aus dem Verhältnis F zu Sensorabmessungen errechnet sich der Himmelsausschnitt bei der Fotografie. Man erkennt schon – bei gleichem Durchmesser ist oft eine geringe Brennweite von Vorteil, wenn man ausgedehnte Objekte hat. Sind die Objekte dagegen klein wie die Planeten, so ist eine lange Brennweite von Vorteil.

Bauarten

Es gibt etliche Subtypen von Teleskopen, aber in der Praxis kann man sie in drei Haupttypen einteilen:

Refraktior StrahlengangDas Linsenteleskop (Refraktor)

Wie der lateinische Ausdruck Refraktor schon aussagt, bricht dieser Typ das Licht durch Linsen. Der Brechungsindex einer Linse ist aber abhängig von der Wellenlänge. So wird das blaue Licht anders gebrochen als das rote. Es kommt zu Farbsäumen um helle Objekte. Das kann man verringern, indem man mehr Linsen kombiniert, wobei diese den Fehler der ersten Linsen kompensieren. Aber so was ist teuer. Vor allem weil man ab zwei Linsen Spezialmaterialen für die weitere Linse braucht. Die billigere Lösung ist es die Brechung zu verringern, indem man die Brennweite verlängert. Linsenteleskope im bezahlbaren Bereich haben ein F/D von 8 bis 13. Wichtig beim Linsenteleskop ist, das der Tubus in etwa so lang ist, wie die Brennweite. Das Okular ist am Ende des Tubus angebracht.

Newton StrahlengangDas Newton Teleskop

Das Teleskop nach Newton, der es erfand (und nicht nur die Gravitationstheorie entdeckte), ist ein Spiegelteleskop, ein Reflektor. Ein parabolisch geschliffener Spiegel am Ende des Tubus bündelt das Licht in einem Brennpunkt vorne im Tubus. Dort sitzt ein Fangspiegel, plan geschliffen, der das Licht um 90 Grad umlenkt zu dem Okular, das dort angebracht ist. Alle Spiegelteleskope sind farbrein. Dafür haben sie andere Nachteile. Der Fangspiegel im Strahlengang ist ein optisches Hindernis, das Kontrast und Auflösungsvermögen absenkt, ist er sehr groß so leidet auch das Lichtsammelvermögen. Mit nur einem Spiegel kann man nicht wie bei Linsenteleskopen optische Fehler die jenseits der optischen Achse auftreten minimieren, wie dies beim Linsenteleskop durch zwei oder drei Linsen geschieht. Newton Teleskope haben den Nachteil der Koma – jenseits der Mitte wird die Abbildung zunehmend unschärfer. Das wirkt sich vor allem bei der Fotografie aus. Auch hier ist die einfachste Maßnahme die Brennweite zu verlängern. Newtons haben ein F/D von 4 bis 8 also deutlich kleiner als bei Linsenteleskopen.

Bei einem Newton Teleskop ist der Tubus etwas kürzer als die Brennweite, da der Okularauszug oben am Tubus ist und ihn nicht verlängert.

Katadioptische Teleskope

Katadioptisches TeleskopKatadioptisch bedeutet, aus zwei unterschiedlichen optischen Systemen. Doch beginne ich erst mal mit der historischen Entwicklung. Nach dem Newton-Typ kamen der Typ nach Cassegrain und später Ritchcy-Chetrien auf. Beide haben denselben Grundaufbau. Der Sekundärspiegel ist beim Cassegrain ebenfalls gekrümmt und bündelt das Licht weiter. Er lenkt es nicht wie beim Newton zur Seite ab, sondern durch ein Loch im Hauptspiegel aus dem Tubus heraus. Als Folge reduziert sich die Tubuslänge beträchtlich, weil sich die F/D Werte von Hauptspiegel und Sekundärspiegel multiplizieren. Bei jeweils F/D von 5 bekommt man so ein F/D von 25, aber der Tubus muss nur so lange sein wie die Brennweite des Hauptspiegels. Leider verstärken sich so auch Bildfehler, die zunehmen je kleiner das F/D ist. Klassische Cassegrainteleskope wie das Hubble-Weltraumteleskop haben daher sehr hohe F/D Werte, Hubble z.B. einen von 24.

Den Bildfeldfehlern rückte man mit dem Ritchey-Chetrien Typ zu Leibe. Bei diesen sind die Spiegel in den Außenbereichen angepasst, normal folgt die Krümmung einem Parabolid. Dadurch kann man niedrigere F/D Werte erreichen. Es gibt Ritchey-Chetrien für Amateure, aber dieser Teleskoptypus ist teuer und selten.

Die meisten katadioptischen Teleskope, die es auf dem Markt gibt, sind vom Schmidt-Cassegrain oder Maksutov Typ. Da ein Amateur kein Cassegrain mit einem Öfnungsverhältnis von 20 bis 30 kaufen würde – der Bildausschnitt wäre einfach zu klein, das Teleskop sehr empfindlich gegenüber Störungen wie Stöße durch Wind nimmt man Spiegel mit geringen F/D, sodass man auf ein F/D von etwa 10 kommt. Dann gibt es aber große Bildfeldfehler, vor allem ist das Bild nur noch in der Mitte scharf und nach außen hin wird es unscharf. Man kombiniert das klassische Casegrain mit einer Schmidt-Platte. Das ist eine Glasplatte die diese optischen Fehler wieder korrigiert. Sie befindet sich an der Front des Tubus. So entsteht das Schmidt-Cassgerain. Die russische Variante dieses Prinzips ist das Maksutov Teleskop bei der es ebenfalls eine Korrekturplatte gibt, nur ist bei ihr der vordere vergrößernde Spiegel eingespart worden und diese Platte wurde in der Mitte verspiegelt und fungiert so auch Sekundärspiegel.

Beide Typen haben sehr kurze Tuben, teilweise nur dreimal so lang wie die Brennweite, sie sind dadurch kompakt und leichter als die beiden anderen Typen. Dafür ist das F/D hoch, 10 bis 11 ist normal. Der Okularauszug ist hinten am Tubus wie bei Linsenteleskopen. Bedingt durch die kleinen F/D ist der Fangspiegel relativ groß – 35 bis 40 % des Optikdurchmessers sind üblich. Der Kontrast und die Auflösung ist dadurch deutlich schlechter als bei Newtons oder Linsenteleskopen.

Praktische Gesichtspunkte

Ein praktischer Gesichtspunkt ist, dass man zu jedem Teleskop noch einen Satz Okulare braucht. Aus dem Verhältnis der Teleskopbrennweite und der Okularbrennweite errechnet sich die Vergrößerung. Der sinnvolle Bereich geht von Teleskopdurchmesser/6 (6 mm ist die maximale Öffnung des Auges bei Nachtadaption) bis Teleskopdurchmesser/1 (auf 1 mm reduzierte Pupille ergibt die höchste Schärfe). Bei einem Teleskop mit 80 mm Druckmesser also 13,3 bis 80-fach. Wer einmal durch ein Okular geblickt hat, weiß das es um so schwerer ist je kleiner der Durchmesser der Feldlinse, also der dem Auge zugewandten Linse ist. Diese Linse wird mit sinkender Okularbrennweite aber immer kleiner im Durchmesser. Ich empfinde das Schauen durch Okulare unter 7 mm Brennweite als anstrengend. Das wissen auch manche Hersteller und stellen Okulare mit kleinen Brennweiten so her indem sie eine Vergrößerungselement (Barlow-Linse) in das Okular einbauen. So wird aus einem 8 mm Okular dann eines mit 4 mm Brennweite. Auf der anderen Seite wird mit steigender Okularbrennweite auch die zweite Linse, unten am Teleskop immer größer. Diese kann niemals größer werden als der Durchmesser des Okulars. Okulare für das 1,25 Zoll System haben so eine maximale Brennweite von 30 bis 35 mm, je nach Gesichtsfeld, Weitwinkelokulare sogar eine deutlich kleinere Brennweite. Es gibt zwar auch Okulare für den 2 Zoll Anschluss, doch dann muss man, wenn man die Vergrößerung wechselt, jeweils noch einen Adapter von 2 auf 1,25 Zoll montieren und diese Okulare sind sehr schwer und teuer.

Sinnvoll ist also eine Maximalbrennweite von 30 bis 35 mm. Das entspricht dee 6 mm Pupille, so kommt man leicht darauf, das das optimale F/D in etwa bei 5 bis 6 liegt. Das Okular mit der kleinsten Brennweite liegt dann bei 5 bis 6 mm Brennweite. Darunter wird auch die Auswahl knapp. In diesem Bereich liegen aber viele Newtons. Linsenteleskope, außer teure Apochromate liegen höher und katadioptische Teleskope erreichen diesen Bereich bauartbedingt nicht.

Ein zweiter Gesichtspunkt ist das Einblickverhalten. Man schaut ja durch das Okular in das Teleskop, das aber je nach Objekt unterschiedlich geneigt ist. Die Montierung ist in der Höhe meist so aufgebaut, dass man bei horizontaler Ausrichtung bequem beobachten kann. Wenn man nun gegen den Zenit beobachtet, dreht sich der Tubus in die Senkrechte und ist der Okularauszug hinten, dann ist die Einblickposition tiefer – bei Linsenteleskopen sind das leicht 50 bis 70 cm und entsprechend muss man in die Knie gehen. Bei katadieoptischen Teleskopen ist es durch den kompakten Tubus weniger und so gibt es da kaum ungünstige Einblickpositionen. Beim Newton kann man durch Rotation des Tubus den Okularauszug von oben nach unten drehen und so die Distanz ausgleichen. Selbst wenn nicht so ist, ist es einfach auf einen kleinen Schemel zu klettern als in die Knie zu gehen.

Preis

Große Linsen, optisch fehlerfrei, gut geschliffen sind erheblich teurer als Spiegel. Linsenteleskope sind daher selbst in einfacher Ausführung teuer als Spiegelteleskope. Daneben erzeugen sie durch den ungünstigen Schwerpunkt auch eine höhere Last auf der Montierung, die so ebenfalls teurer wird.

Bei katadioptischen Teleskopen ist eine korrigierende Schmidtplatte und ein hyperbolisch geschliffener Fangspiegel ebenfalls teurer als der plane Fangspiegel des Newton. Auch diese sind daher bei gleicher Öffnung oft teurer als ein Newton. Sie punkten aber mit dem kürzeren Tubus, der durch die Hebelwirkung weniger Last auf der Montierung erzeugt. Da gute Montierungen ebenfalls nicht billig sind und vor allem bei steigendem Optikdruchmesser auch rasch teurer werden, sind katadioptische Teleskope bei großen Öffnungen preislich aktraktiver. Ihre Vorteile spielen sie bei kleinen Öffnungen, wo auch bei Newtons der Tubus noch nicht so lang ist, kaum aus.

Nicht umsonst steigt das Angebot an Schmidt-Cassegrain erst bei 200 mm Optikdurchmesser an, während es bei Newtons in diesem Durchmesser schon zurückgeht. Für einen Einsteiger sind katadieoptische Teleskope oft zu teuer, Linsenteleskope, die bezahlbar sind, haben oft lange Brennweiten mit den beschriebenen Nachteilen.

Tipps

Wie schon gesagt, ich mache keine Empfehlung für ein konkretes Produkt und äußere mich auch nicht, wenn ich zu meiner Meinung für ein bestimmtes Teleskop gefragt werde. Aber es gibt einige Empfehlungen. Das erste ist die Preisklasse. Wer neu ist, weiß nicht, was ein Teleskop kostet. Für etwas was man nicht kennt 200 Euro auszugeben, scheint dann viel zu sein. Bei Teleskopen kann man für den Preis aber wenig Qualität erwarten. Als Faustregel: Amateurteleskope kosten in etwa so viel wie ein brauchbarer Computer. Da wird man für 200 Euro auch nichts bekommen und ähnlich wie man für einen Gamer-PC mehrere Tausend Euro ausgeben kann, kann man auch Tausende für ein Teleskop ausgeben. Für ein Einsteigergerät würde ich mit Zubehör mit 300 bis 500 Euro rechnen. Ist das Budget knapp so verzichtet man eher auf Zubehör oder kauft ein etwas kleineres Gerät als geplant. Man darf nicht vergessen, dass der Sprung von 100 auf 150 mm Öffnung nur der Faktor 1,5 ist. Aber vom Auge sind schon 100 mm Öffnung der Faktor 16!. Ein größeres Teleskop wird also mehr zeigen, aber man sollte sich nicht eine zu hohe Steigerung erwarten.

Ein leider querbeet zu beobachtendes Phänomen ist, dass Einsteigerteleskope, da Einsteiger sich nur nach der Größe des Teleskops orientieren, mit durchweg zu schwachen Montierungen verkauft werden. Die Montierung ist das Stativ und das Getriebe darüber, dass das Teleskop hält und das mit Rädern dann dem Lauf der Sterne nachgeführt wird. Eine gute Montierung trägt das Gewicht des Teleskops und hat noch einige Kilogramm Reserven, z.B. für schweres Zubehör wie eine Spiegelreflexkamera. Der Laie kann das nachprüfen wenn im Datenblatt steht was der Tubus (OTA: optical Tube Assemby) wiegt und was die Montierung trägt. Fehlt die Angabe, so sucht man nach der Montierung im Shop, die es meist auch einzeln zu kaufen gibt. Auch wenn es teurer ist: kaufen sie Tubus und Montierung getrennt, wobei die Montierung dann eine Nummer größer ist als die im Komplettkit ist.

Sparen können sie am Zubehör. Für den Anfang reichen zwei Okulare die meist mitgeliefert werden. Später können sie weitere oder bessere nachkaufen. Sinnvoll deckt man den Vergrößerungsbereich mit drei bis vier Okularen ab, oder zwei Okularen und einer Barlowlinse. Ebenso kann man Sonnenfilter oder andere Filter später nachkaufen, das gleiche gilt für Motoren oder Nachführausrüstung, wobei man sich schon vor dem Kauf informieren sollte, ob das Teleskop dafür ausgerüstet ist. Für den Anfänger verzichtbar sind Schnick-Schnack wie Smartphone Halterung (die Kameras von Smartphones sind so schlecht das man damit praktisch nur Mond und Planeten aufnehmen kann) oder GotoSteuerungen um Himmelsobjekte anzusteuern. Bei dem kleinen Budget steckt man das Geld lieber ins Teleskop selbst. Noich was zu den Okularen selbst – erstaunlicherweise sind diese oft schlecht gewählt, ergeben zu hohe Vergrößerungen oder es fehlt eine niedrige Vergrößerung. Ist das der Fall, so sollte man überlegen, ob man von diesem Hersteller etwas kauft, wenn er schon die Grundausstattung so schlecht zusammenstellt.

Teleskope würde ich immer von einem spezialisierten Shop kaufen. Zum einen kann man dort viel einfacher Angebote vergleichen. Zum andern gibt es dort umfangreiche Infos und auch Beratung. Ein kurzer Gegencheck zu Angeboten bei Amazon zeigt auch das man beim Kauf über Amazon und Co nichts spart. Teleskopshops sind unter anderem:

Astroshop.de

Intercon SpaceTek

Teleskop Service

Ich habe bei allen Dreien schon mal gekauft. Die Angebote für Einsteiger dürften überall die gleichen sein. So entscheiden sie sich danach, mit welchem Webauftritt sie am besten zurechtkommen.

Noch ein Wort zu Dobsons

Dobsons, so benannt nach ihrem Erfinder sind Teleskope, bei denen es vor allem auf die Öffnung ankommt. Anders als andere Teleskope befindet sich das Newton-Teleskop – andere Typen sind bauartbedingt nicht möglich – nicht auf einer Montierung mit Getriebe auf einem stabilen Stativ, sondern in einer Holzbox. Die Montierung ist damit azimutal, eigentlich gedacht für die Erdbeobachtung. Man muss so immer zwei Achsen nachführen anstatt einer, bei einer ausgerichteten parallaktischen Montierung. Ohne Getriebe mit Rädelachsen muss man von Hand das ganze Teleskop bewegen und das sehr feinfühlig bei den hohen Vergrößerungen. Ich habe ein Dobson. Bin mit dessen Nachteilen aber nicht warm geworden. Es ist zu umständlich zu bewegen und auszurichten, auch weil der Tubus so niedrig ist und man sich dauernd bücken muss (und ich habe eines mit 1,5 m Brennweite). Immerhin – um Montierung, Motoren zur Nachführung oder Zubehör für die Astrofotografie muss man sich keine Sorgen machen, denn das funktioniert bei dem Prinzip nicht. Wenn man wirklich nicht weiß, ob die Beobachtung etwas ist, was einen langfristig bindet oder es ein Geschenk sein soll bei dem man nicht weiß ob der Geschenkte darauf brennt wären Dobsons eine Alternative. Dann würde ich aber ein billiges Einsteigermodell wählen, das im Prinzip nur dazu dient, die Grundlagen eines Teleskops und was wichtig ist sich anzueignen, und wenn man dann gefallen an dem Hobby hat, kann man dann ein „richtiges“ Teleskop kaufen.

13.11.2020: China und die Space Force

Nach dem Wahlsieg Bidens fragen sich alle, die sich für Raumfahrt interessieren, wie es natürlich hier weitergeht. Es gibt von Biden keinerlei Äußerungen zu dem Thema, nur einen Absatz im Wahlprogramm. Er spricht von dem Fortsetzen internationaler Programme, Fokus auf Klima und Erdforschung und Weiterbetreiben der Programme für bemannte Mond- und Marsmissionen. Artemis wird wohl nicht eingestellt werden, aber sicher nicht die Priorität wie bei Trump genießen – wobei, Priorität war bei ihm ja nie mit einer ausreichenden Finanzierung verbunden. Inzwischen äußern sich auch Politiker skeptisch zu dem Ziel bis 2024 auf dem Mond zu landen, wer sich in der Raumfahrt auskennt hatte schon vorher berechtigte Zweifel, denn dieses Ziel wäre nur erreichbar gewesen, wenn man das Programm entsprechend finanziert hätte, was ja auch unter Trump nicht so erfolgte.

Ein Projekt, das wesentlich weiter ist, wird wohl auch unter Biden weiter verfolgt werden. Die 2018 aus der Taufe gehobene Space Force. Nicht das Weltraumaktivitäten vorher keine Bedeutung für die USA gehabt hätten – das kombinierte Budget von NRO und USAF nur für „Space“ dürfte das der NASA erreichen – aber es war eben bisher keine eigene Waffengattung. Während die Space Force bisher durch Streitigkeiten zu welcher Waffengattung sie gehört und welche Ränge es geben soll, auffiel waren die Ziele beeindruckend. Es geht nicht nur wie bisher um das Starten von Satelliten. Es geht wirklich um Aufgaben, wie sie das Militär hat: Abwenden von Bedrohungen, Schützen eigener Objekte aber auch Ausschalten anderer Satelliten. Trump wollte sogar die zivile ISS miteinbeziehen. Das wird immer bizarrer. Inzwischen reden Offizielle von Patrollien durch das US-Militär jenseits des Mondes. Realistischer ist es Satelliten passiv zu schützen, wie das ESS-Programm, bei dem Satelliten einen EMP-Impuls durch eine Atomwaffenexplosion überleben sollen.

Während einige diese Szenarien utopisch sind, nimmt die Space Force erheblich schneller als Artemis die Fahrt aus. Weniger als zwei Jahre nach Gründung erfolgte dieses Jahr schon der erste Start. Der militärische Teil des Weltraumbahnhofs in Florida wurde inzwischen in Cape Canaveral Space Force Station umbenannt. Allein dieses Jahr erhält sie 15,4 Milliarden Dollar, das wird in den nächsten Jahren mehr werden. Man rechnet nicht damit, das Biden die Space Force wieder in der Versenkung verschwinden lässt.

Zumindest einer hat die Space Force ernst genommen. Trump hat ja einen Handelskrieg gegen China vom Zaun gebrochen und von Biden wird zumindest in der Handelspolitik gegenüber China keine wesentliche Änderung erwartet. Zudem haben sich die Beziehungen zwischen China und den USA unter Trump stark verschlechtert. Trump spricht ja auch immer vom „chinesischen Virus“. China, das sagte ein vom Senat befragter Geheimdienstchef, nimmt die Space Force ernst und unternimmt derzeit Maßnahmen gegen sie. Sie rechnen mit Angriffen auf ihre Satelliten und erarbeiten Möglichkeiten sich gegen diese zu wappnen, wie auch Satelliten der USA zu zerstören.

China hat mit vom Staat unterstützten Firmen in den letzten Jahren eine Reihe von neuen Feststoffraketen entwickelt. Teileweise Neuentwicklungen, teilweise abwandelte militärische Typen. Erst diese Woche hatte die teilprivate Ceres 1 ihren erfolgreichen Jungfernflug. Wenige Tage vorher startete eine Langer Marsch 6 mit 10 Satelliten. Nach dem Geheimdienstchef arbeitet China daran, sowohl ihre Technologie zum Abfangen von Satelliten weiter zu entwickeln und in ein dauernd einsatzbereites System zu überführen wie auch daran Satelliten extrem schnell zu starten, um Verluste rasch zu ersetzen. Schon 2007 schossen sie einen eigenen Sonnenforschungssatelliten ab. Inzwischen erreichte ein Satellitenabfänger eine Rekordhöhe von 30.000 km. Er kann damit auch die Navstar Satelliten angreifen und mit nur wenig Mehrleistung auch den GEO in knapp 36.000 km Höhe erreichen.

China sichert sich auch gegen Angriffe auf seine Startzentren ab. Denn damit könnte die Space Force ja verhindern das man Ersatz bereitstellt. China hat derzeit drei Weltraumzentren und baut ein viertes auf.

Im Juni erfolgte der erste Test eines Starts von einer mobilen Startplattform an Bord eines Schiffs. Eine Langer Marsch 11 startete von einem Schiff aus neun Satelliten gleichzeitig. Ebenso wird an mobilen Startbasen auf dem Festland gearbeitet. Das Schiff für den ersten Start ist noch ein umgebauter Frachter. Doch, in der Endphase ist geplant, sowohl Satelliten wie auch Antisatellitenwaffen auf normalen Schiffen zu stationieren. Sie sollen permanent auf einem Schiff mitfahren, verstaut in Standardcontainern. Erste Schulungen von besonders vertrauenswürdigen Besatzungen sollen schon erfolgen. In einem Container befindet sich ein Kran um die Rakete zusammenzusetzen (sie sind natürlich länger als ein Standardcontainer, in einem Zweiten die Rakete. Der Start selbst kann durch die Besatzung auf dem Schiff erfolgen, sollte, sofern das eigene Netz aber noch funktioniert, durch eine Funkverbindung vom Hauptquartier aus gesteuert werden. Die auf alle Weltmeere verteilten Schiffe sollen sowohl es erlauben Netze schneller wieder aufzubauen, indem es mehr Startbasen gibt und diese auch verteilt sind, somit leichter alle Bahnneigungen und Bahnebenen wieder erreichbar sind. Zum anderen müsste der Gegner so einen viel höheren Aufwand betreiben, um die mobilen Startbasen zu zerstören. Auch für das Abfangen von Satelliten ist ein weltweit verteiltes System von Vorteil, denn erdnahe Satelliten überfliegen einen Punkt auf der Erde nur alle 12 Stunden. Mit einem Schlag so größere Teile der Satellitenflotte der USA auszuschalten, wäre mit Systemen nur auf dem chinesischen Festland unmöglich.

Neben den Tests gibt es auch ein Forschungsprogramm. So wird derzeit daran geforscht ob es Sinn macht das Starlink Netz zu zerstören, und welchen Aufwand und Nutzen das brächte. Aus Chinas Sicht ist Starlink ein teilmilitärisches Netz. Schlussendlich gab es schon, nachdem die ersten Satelliten gestartet wurden, Tests der Nutzung durch das Militär und inzwischen wird Starlink sowohl als militärisches Kommunikationsnetz genutzt wie auch als Alternative zu GPS untersucht. Das grundlegende Problem ist natürlich, das man zwar mit der Zerstörung mehrerer Starlink-Satelliten schnell eine Situation schaffen kann, die zu einer exponentiellen Zerstörung von immer mehr Satelliten führt, dem sogenannten Kessler Effekt. Was eine sich exponentiell verstärkende Zerstörung bedeutet, weiß ja inzwischen durch Corona fast jeder. Doch das würde auch eigene Satelliten betreffen. Wahrscheinlich sucht China in den Computersimulationen nach Möglichkeiten Starlink und US-Satelliten möglichst stark zu schädigen und gleichzeitig ein eigenes Netz aufrechtzuerhalten, z.B. mit sehr erdnahen Satelliten, die nur kurzlebig sind, aber vor Trümmern geschützt sind, weil diese bei einem erdnahen Perigäum rasch wieder verglühen. Wenn diese Satelliten mit Ionentriebwerken arbeiten, wie der europäische Forschungssatellit GOCE könnten sie selbst in erdnahen Umlaufbahnen von 200 km Höhe wochen- bis monatelang aktiv bleiben. Gearbeitet wird an einem militärischen Backup zum Beidou System, dem chinesischen Pendant zu GPS. Es baut auf zahlreichen erdnahen Satelliten, deren Umlaufbahnen bekannt sind. Die eigene Position wird dann durch Triangulation des Funksignals von mindestens drei Satelliten bestimmt. Ein solches System hatten die USA vor GPS in Betrieb: das Transit System. Damals wurden ebenfalls mehrere kleine Satelliten mit einer Scout gestartet, ähnlich wie bei den letzten chinesischen Starts.

Das Resümee des Vortrags war, das China sehr rasch seine eigene Space Force aufbaut und innerhalb weniger Jahre die Fähigkeit haben wird, sowohl alle erdnahen US-Satelliten wie auch das GPS-System zu zerstören und genauso rasch eigene Verluste durch Neustarts ergänzen könnte. Die Startrate chinesischer Träger stieg in den letzten Jahren rapide an. Letztes Jahr waren es 34 Starts, dieses Jahr trotz Corona Pandemie bis zum 1.10, also nach ¾ des Jahres schon 29. Man kann nur hoffen, dass sich die beiden Nationen wieder annähern, was aber wohl eher unwahrscheinlich ist. China setzt repressive Maßnahmen in Hongkong durch, beansprucht immer mehr bisher internationale Gewässer und bauen Korallenriffe zu Inseln aus. Umgekehrt wollen die USA die Importe aus China in die USA herunterfahren, was als Hauptexportmarkt für China wohl kaum die chinesische Führung erfreuen wird.

16.11.2020: Der Raspberry Pi 4B als Desktop Ersatz?

Der Raspberry Pi ist der populärste Kleincomputer. Über 30 Millionen des Rechners wurden von 2012 bis 2019 verkauft. Gedacht war er um Programmieren zu lernen, in Reminiszenz zu den Heimcomputern der Achtziger Jahre, da er aus England kommt, liegt der Vergleich mit dem Sinclair Spectrum auf der Hand. Doch schon der hinkt. Das Einzige was ihn mit dem Spectrum verbindet ist, das sein Preis sehr niedrig ist. Das teuerste Modell kostet derzeit um die 75 Euro. Dazu kommen aber noch mindestens ein Netzteil und eine Mikro-SD Karte, in den meisten Fällen auch ein Gehäuse. Doch selbst dann liegt der Komplettpreis nur bei etwa 100 Euro.

Der Raspberry Pi bootet von der SD-Karte, im Normalfall eine Linux Version „Rasbian“ die vom Debian Zweig abstammt. Man kann durch verschiedene SD-Karten aber auch andere Betriebssysteme booten, so ein Standard-Linux wie Ubuntu oder die Mediacentersoftware Kodi. Es muss auch nicht immer bis zur grafischen Oberfläche gehen, sondern nur bis zur Textkonsole, wenn er als NAS-Server dient oder man nur ein eigenes Programm fährt, um Sensoren abzufragen.

Sensoren kann man an einer Leiste mit I/O Pins anhängen. Daneben gibt es einen speziellen Anschluss für eine Kamera. Der Rest der Anschlüsse ist dagegen Industrienorm – je nach Modell einen bis vier USB-Anschlüsse, einen oder zwei HDMI-Stecker für Bildschirme, Netzanschluss. Je nach Modell verfügen die Rechner auch über Wlan und Bluetooth. Die Stromversorgung geschieht über einen Mikro-USB Anschluss, wie ihn auch Handys und MP3-Player zum Aufladen haben.

Ich habe im Laufe der Zeit alle Versionen des Raspberry Pi durch. Den Ersten, einen Raspberry Pi 1 (700 Mhz, ein Kern, 512 MB RAM) kaufte ich aus Neugier. Später entstand eine Wetterstation mit ihm, wo er Sensoren von Tinkerforge abfragte. Diese lief auch über ein Jahr. Dann blieb der Rechner immer wieder hängen – wie sich zeigte lag es aber nicht am Raspberry Pi, sondern den Sensoren von Tinkerforge.

Es folgte ein Raspberry Pi 2 (900 MHz, 1 GB). Ich hoffte mit ihm produktiv arbeiten zu können, denn die grafische Oberfläche des ersten Modells war enorm langsam. Der Raspberry Pi 2 ist deutlich schneller, hat vor allem aber mehr Speicher. Denn, wenn das System auch im Vergleich zu Windows weniger Ressourcen beansprucht sind, 512 MB eben doch wenig. Er diente dann eine Zeit lang um die Programme für den Raspi 1 zu kompilieren, weil es deutlich schneller ging. Später wurde er um ein I/O Extender Board erweitert, an das man verschiedene Sensoren anschließen konnte. Das Ansprechen von Sensoren geht komfortabel, ebenso die Kamera, die man z.B. nutzen kann, um Räume zu überwachen. Aber da man anders als bei einem nur dafür ausgelegten Rechner wie einem Arduino das Programm nicht in ein ROM ablegen kann, sondern es nach dem Start automatisch starten muss ist für der Raspberry für solche Projekte vielleicht nicht die erste Wahl. Ich habe ihn trotzdem eingesetzt, weil die Rechenleistung es ermöglichte nicht nur Sensoren abzufragen, sondern auch gleich eine Website mit der Visualisierung zu basteln und über FTP auf meinen Webserver hochzuladen. Die erstellten Seiten in dem Jahr, in dem er das tat, sind noch immer einsehrbar.

Das Nachfolgemodell Raspberry Pi 3 habe ich dann lange Zeit als Desktop-Ersatz genutzt. Es hat nun vier Kerne, die mit 1,2 GHz getaktet sind und ebenfalls 1 GB RAM. Man kann mit ihm arbeiten, aber es macht keine große Freude. Moderne Webseiten, überfrachtet mit Werbung und Videos laden zäh. Am besten geht noch die Bürosuite Libreoffice. Er begleitete mich, wenn ich in mein Ferienhaus nach Nesselwang ging. Ich schaute nach Mails, schrieb meine Blogs mit ihm. Dazwischen (mit einer anderen Micro-SD Karte) war er Mediacenter. Abgelöst wurde er durch einen Gebrauchtrechner, den ich von einem Händler von Rechnern gekauft habe, die bei dem routinemäßigen Ausmustern von Bürorechnern anfallen. Obwohl der nur eine Icore der 3xxxx Serie hat, also Hardware, die 2012/3 aktuell war, ist er um Längen schneller als der Raspberry Pi 3. Ich machte, wie man auch leicht am Ressourcenmonitor sehen kann, die Speicherausrüstung als Flaschenhals aus. Ein Browser mit mehreren offenen Tabs kommt leicht über 1 GB raus die als Arbeitsspeicher verbaut sind.

Beim neuesten Modell Raspberry Pi 4 hat man den Takt leicht auf 1,5 GHz gesteigert, zudem soll die neue CPU die Befehle schneller abarbeiten, als die im 3-er Modell verbaute. Vor allem gibt es ihn aber in mehreren Ausbauvarianten mit 2, 4 oder 8 GB Speicher. Da ich nun einen Desktopersatz für meinen regelmäßigen Aufenthalt in Nesselwang hatte, habe ich ihn lange ignoriert, bis im August 2020 auch ein 8 GB Modell erschien. Natürlich ist der Vergleich mit einem PC schwer, aber Windows 10 würde ich nicht auf nur 4 GB Speicher laufen lassen. Seitdem ist er an einen alten 32 Zoll HD-Ready Fernseher angeschlossen, der neben dem Couchtisch steht und für die Benutzung kurz auf den Tisch gehoben wird und der Raspberry Pi angeschlossen wird. So kann ich surfen oder Mails nachschlagen, wenn im Fernsehen nichts oder Werbung läuft oder Filme anschauen wenn Bruce Springsteen recht hat „57 channels and nothing on

Zuerst sah es nicht so aus, als wäre er wesentlich schneller als das Vorgängermodell. Doch ich setzte auch die SD-Karte des alten Raspsis ein. Der neue Raspberry Pi 4B braucht eine schnelle Mikro-SD Karte. Ich habe eine Kingston SDCE/64GB High Endurance microSD Karte 64 GB gewählt, die nicht nur schnell ist, sondern auch für viele Schreibzugriffe ausgelegt ist „ High Endurance“. Damit halbierte sich schon die Bootzeit und der Rechner wurde deutlich schneller. 64 GB müssen es nicht sein, eine 32 GB reicht auch. Ich habe derzeit noch 42 GB frei. Der Raspi hat in Geschwindigkeit aufgeholt, ist aber noch langsamer als ein PC. Ich habe mal eine komplexe Homepage, die von SWR1 Baden Württemberg, wo durch viele verlinkte Videos das letzte Element auch auf meinem PC erst nach einigen Sekunden erscheint, geladen und über die Entwicklertools die Ladezeit unter Chrome bestimmt (F12 drücken, Reiter „Network“ anwählen). Es sind 10,5 s. Bei meinem PC sind es 2.48 s. Er ist also noch um den Faktor 4 bis 5 langsamer. Man merkt das. Vor allem Thunderbird als Mailclient braucht sehr lange, bis es meine inzwischen 6 Mailkonten nach dem Start abgeklappert hat (drei eigene für die Websites, drei fremde für Bestellungen / SPAM). Als anspruchsvollster Kandidat entpuppte sich Mediathekview. Das Programm ist schon auf dem PC langsam. Auf dem Raspberry Pi ist nach dem Start die Prozessorlastanzige einige Minuten auf 100 %, bis die gesamte Filmliste geladen und verarbeitet ist. Das liegt primär daran, dass das ganze Programm in Java geschrieben ist. Java ist meinen Erfahrungen nach die ineffizienteste Programmiersprache, die es gibt und sie benötigt eine enorm große Laufzeitbibliothek – auf dem PC 1,5 GB groß, auf dem Raspberry Pi 1,4 GB (das Programm selbst ist nur 64 MB groß). Immerhin, mit geöffnetem Mediathekview, Libreoffice, Chromium Webrowser und Thunderbird sind nur 2,6 GB von 7,8 GB verfügbarem Speicher belegt. Es würde also auch die 4 GB Version ausreichen. Mit etwas Geduld, vor allem beim Start von Programmen kann man aber mit dem Raspberry Pi 4B gut surfen und arbeiten.

Etwas schwieriger ist es, das System auszuwechseln. Es gibt zum einen für Raspbian andere Oberflächen wie Mate oder XFCE4 die auch wenig Ressourcen brauchen aber schicker als der Standard-Desktop aussehen. Ich habe sie ausprobiert, bin aber zum Standard zurückgekehrt. Warum? Es fehlen nun einige Menüeinträge, an die ich mich beim Standard-Desktop gewöhnt habe, vor allem der für das Entfernen und Hinzufügen von Programmen, der einfachsten Art Software zu installieren. Klar es geht auch von der Konsole aus mit apt-get. Das hat aber den Nachteil, dass man die Namen der Pakete kennen muss. So wollte ich Firefox als Browser nachinstallieren. Der hieß bei früheren Raspberry Pis aber „Iceweasel“ - das Paket gibt es nicht, aber auch keines das „Firefox“ heißt. Schließlich fand ich heraus das er nun „Firefox-ESR“ heißt. Aber das muss man erst mal rausfinden. Bei Add/ Remove Software tippt man dagegen Firefox ins Suchfeld ein und schaut sich die Liste durch – immer noch viel, weil die auch alle Einträge enthält die Firefox nur in der Beschreibung aber nicht Paketnamen oder Titel enthalten- das hätte man besser machen können.

Die Leistung müsste auch ausreichen, ein anderes Linux mit einem schickeren Desktop auszuprobieren. Also habe ich mir ein Image für Ubuntu heruntergeladen, auch weil der Standard von Raspbian sehr alte Programmversionen im Repository hat. Ich erhoffte mir eine aktuellere Version meiner Entwicklungsumgebung dort zu finden (war aber nicht der Fall). Leider hat Ubuntu ein Problem mit meinem Fernseher. Er ist nur „HD-Ready“, hat also die im PC-Bereich unübliche Auflösung von 1.366 x 768 Pixeln. Ein Feature der GPU des Raspbis in allen Versionen ist der „Overscan“. Je nach Monitor oder Fernsehen sollte man ihn aktivieren oder nicht. Bei Formaten die der Raspi voll unterstützt, kann man so das Bild randlos aufziehen. Das geht bei dem Fernseher nicht. Der Overscan muss aktiv bleiben. Man hat dann einen schwarzen Rand ums Bild. Deaktiviert man ihn, so verliert man aber Teile der oberen Menüleiste und unteren Statusleiste. Damit wird der PC praktisch unbedienbar, da man so nicht sieht, in welches Menü man klickt. Und das ist auch die Standard-Ausgabe von Ubuntu mit demselben Problem. Man kann nun die Auflösung anpassen (die gewählte ist 1280 x 720) und muss dann entweder mit noch weniger Bildfläche leben oder wenn man ein größeres 16:9 Format nimmt, mit schwer lesbaren Schriften weil die Auflösung höher als die des Fernsehers ist. Es gibt in Ubuntu keine Möglichkeit den Overscan einzustellen, da das dafür notwendige Konfigurationsprogramm, das Raspbian mitbringt fehlt. Also bin ich zum Standard-Desktop zurückgekehrt. Ich vermute aber bei einem normalen Monitor oder HD-Fernseher gibt es das Problem nicht. Hätte ich nicht starke Einschränkungen in der Sehkraft, ich, würde den Raspi auch direkt an den „normalen“ Fernseher anschließe, aber bei einem Betrachtungssabstand von 2-3 m ist auch bei dem 49 Zöller für mich die Schrift und der Mauszeiger zu klein. KODI als Mediencenteroberfläche ist dagegen gut bedienbar, da sie von vorneherein schon mit großen Schriften und Symbolen kommt und auch mit einer Bildschirmtastatur, damit man sie notfalls mit einer Fernbedienung bedienen kann.

Man kann an den Raspi jede beliebige USB Tastatur anschließen, ebenso jede Maus. Ich habe aus Bequemlichkeit eine Funkkombination von Logitech, das minimiert den Kabelsalat. Kontakt kann man aber auch über SSH herstellen (unter Windows sollte man Putty installieren und beim Raspi SSH-Zugriffe im Konfigurationsprogramm erlauben) oder noch bequemer über Remote Desktop (dafür muss man beim Raspi xrdp nachinstallieren). Nur ist eine Tastatur um ein Vielfaches größer als der Raspi selbst. Das ist, wenn man ihn als mobilen Rechner einsetzen, will natürlich ein Nachteil. Die Lösung – entweder man leiht sich lokal eine Tastatur und Maus aus, oder kauft am Ferienort eine die man dann nicht mit nach Hause mitnimmt (gibt es ja schon für unter 10 Euro) oder man greift zum neuen Raspberry Pi 400 (noch nicht getestet). Das ist ein Raspberry Pi 4B mit 4 GB RAM in einem Tastaturgehäuse. Allerdings einer kleinen Tastatur. Diese hat keinen Zehnerblock und ist so nur 285 mm lang, eine normale USB-Tastatur mit Zehnerblock ist dagegen 445 mm breit. Zusätzlich dient die Tastatur als Kühlblock ´, so taktet die Core um 300 oder 20 % MHz höher. Beim Benutzen meines Raspis fiel mir auf, dass beim schauen von Filmen über die Mediathek sehr schnell das Überhitzungssymbol in der rechten oberen Ecke auftaucht, egal ob als Vollbild oder im Browserfenster. Bei einem mit Mediathekview heruntergeladenen und dann abgespeilten Film blieb die Prozessorlastanzeige dagegen weit unterhalb von 30 %. Die Warnung ist nur eine Warnung – der Raspi nimmt keinen Schaden. Sie signalisiert nur das die CPU den Takt reduziert um nicht zu überhitzen. Sie ist aber nervig durch das Blinken im Vollbildvideo.

Wozu ein Raspberry Pi, wenn man auch ein Smartphone hat?

Klar. Heute wird viel mit dem Smartphone gemacht. Ich selbst habe keins, eben weil ich schlecht sehe, damit ich etwas erkenne muss ich so stark vergrößern, dass dies bei den kleinen Bildschirmen das Surfen zum Qual macht und ich kann auch auf der Bildschirmtatstur nicht wirklich schnell tippen. Zudem habe ich mich an den PC, große Monitore und echte Tastaturen gewöhnt. Der Raspi erlaubt es mir wie mit einem PC zu arbeiten, nicht nur zu surfen oder Dinge zu machen die kaum Tastatureingaben erfordern, ich brauche nur eine Tastatur und Maus und ein HDMI-Kabel, ich kann ihn an jeden Fernseher anschließen. Ich sehe durchaus Vorteile – es ist einfach bequemer, man kann nicht nur surfen, sondern auch arbeiten, es gibt auf dem Raspi eben alle Programme, die man auch vom PC kennt, z.B. eben Libreoffice als Office Suite. Gegenüber einem fremden PC wie in einem Internet Cafe, punktet der Raspi indem er natürlich auch so konfiguriert werden kann, das er alle Passwörter und Mailkonten kennt. Wer ein Google Konto hat und Chrome / Chromium benutzt, braucht sogar nur einmal ein Passwort – das des Google Kontos. Hat man sich einmalig auf dem Raspi mit Chromium bei Google eingelockt, dann synchronisiert er sich, lädt alle Lesezeichen, Erweiterungen und eben auch alle Passwörter herunter. Es ist schlicht und einfach bequemer, auch bequemer, wenn man nur Filme ansehen will. Das geht zwar auch über die Mediatheken mit einem Fernseher (über die rote Taste). Doch wer die kennt weiß, wie zäh sie laden, wie lange es dauert, bis man sich zu etwas vorgearbeitet hat. Beim Raspi öffnet man den Browser, tippt den Sendungsnamen und „Mediathek“ ein und unter den ersten Treffer ist meist auch das Video in der Mediathek, das man dann im Vollbild anspielen kann. Daneben kann man natürlich andere Videos vom USB-Stick abspielen.

Fazit

Ein Raspi 4B kann einen PC nicht ersetzen, aber ergänzen, als „Zweit-PC“ für die Mitnahme auf Reisen oder angeschlossen an den heimischen Fernseher, mit einem Kartenwechsel auch als Mediencenter. Das kostet nicht viel, die Tastaturversion benötigt noch eine Maus, Netzteil, HDMI-Kabel und man hat für unter 100 Euro alles, was man braucht und bei weniger als 30 cm Länge ist er auch noch leicht im Koffer unterzubringen.

10.11.2020: OS/2

Eine Mail, in der der Schreiber meinte, OS/2 wäre nur kurz nach Windows erschienen und ich hätte das falsch beschrieben, brachte mich auf den heutigen Blog, denn der Schreiber lobte auch OS/2 in höchsten Tönen und lies an Microsoft, wo seiner Ansicht nach, Bill Gates jede Software persönlich programmiert kein gutes Wort.

OS/2 ist, wie man ja weiß, im Konkurrenzkampf Windows unterlegen. Ich kann das System nicht beurteilen, denn ich habe nur kurz damit zu tun gehabt. Ich habe mal eine Version, ich glaube es war die letzte installiert und kurz ausprobiert. Das war es aber dann schon. Nutzer, die auf das System schwören, rühmen seine Sicherheit und Stabilität. Warum also war es nicht so erfolgreich wie Windows?

Die Geburtsfehler

Daneben gab es einige falsche Entscheidungen. Zum einen zwei technische Entscheidungen. IBM wollte für die erste Version von OS/2 (1.0) eine rein textbasierte Oberfläche entsprechend dem, was man von DOS gewohnt war. Microsoft drängte IBM dazu, gleich eine grafische Oberfläche anzustreben. IBM meinte, die textbasierte Oberfläche würde noch einige Jahre die wichtigere sein. Das Argument klingt aus der Retrospektive kurzsichtig, aber es war nicht aus der Luft gegriffen. Es dauerte bis 1995 bis mit Windows 95 aufi dem PC MS-DOS als verbreitetste Oberfläche abgelöst wurde. Auch ich habe unter meinem PC mit Windows 3.1 meist unter DOS gebreitet. Turbo Pascal, DBASE, Spiele liefen nur unter DOS. Windows brauchte ich vor allem für die Textverarbeitung. Aber natürlich hätte man ein modernes System mit mehr Sicherheit, Speicher und Möglichkeiten als DOS implementieren können und zwei Shells - eine textbasierte und eine grafische darauf aufsetzen können. Daneben gab es mit dem Macintosh, Atari ST und Amgia schon Computer mit grafischen Oberflächen. So gesehen war die Überlegung erst in einem zweiten Schritt an das grafische System zu gehen, doch nicht die beste.

Die zweite Fehlentscheidung war die Entscheidung von IBM für die Codebasis des 80286. Der 80286 war der erste „richtige“ 16-Bit-Prozessor von Intel. Intel hatte den 8086 schnell als Nachfolger des 8-Bit-Prozessors 8080 designt, mit der Option das ein Programm Assemblercode des 8080 in Assemblercode des 8086 umsetzen konnte. Das war zwar für die Einfühlung toll, führte aber dazu, dass alle Register nur 16 Bit breit waren und die Adressierung so über mehrere Fenster von je 64 KByte Größe erfolgte, die im Adressraum verschoben wurden – sehr umständlich und fehlerträchtig. Gängige Programmiersprachen unterstützten so maximal 64 KByte große Datenstrukturen, selbst wenn man 1 MByte Speicher verbaut hatte. Der 80286 hatte einen linearen Speicher von 16 MByte Größe wieder Motorola 68000, dazu noch Möglichkeiten Fehler abzufangen und vom Betriebssystem behandeln zu lassen. Wichtig für ein echtes Betriebssystem, bei dem der Computer nicht bei einem fehlerhaften Programm abstürzen soll. Leider hatte Intel dies so implementiert, dass es zwei Modi gab – den 8086 kompatiblen oder den neuen „Protected Mode“. Man konnte vom ersten Modus, „Real Mode“ genannt, in den Protected Mode wechseln, aber nicht umgekehrt. Das war für die Entwicklung eines Betriebssystems und jeglicher Software im Protected Mode problematisch, denn diese Entwicklung und das Testen musste ja im Real Mode erfolgen. Bill Gates persönlich drängte daher IBM dazu gleich auf den 80386 zu wechseln – er hatte viele neue Features, wie virtuelle Speicheradressierung vor allem aber für die Entwicklung wichtig und das Laufenlassen alter Software, einen „virtuellen Real Mode“ - er konnte beliebig viele Prozesse im 8086 Modus starten, während er im Protected Modus war und diese waren voneinander abgeschottet – ideal für ein Betriebssystem, dass so auch alte DOS-Programme ausführen konnte. IBM wollte aber eine Lösung für die aktuellen Rechner – sehr kurzfristig, denn bis OS/2 erschien, waren IBMs eigene 80386 Rechner auch schon mehr als ein Jahr auf dem Markt.

Der langfristig größte Fehler war aber, dass IBM und Microsoft zusammen das Betriebssystem entwickelten. Denn beide Firmen hatten unterschiedliche Interessen. Microsoft wollte einen Nachfolger für DOS, am besten als Konkurrenz für die aufkommenden grafischen Oberflächen. IBM wollte dagegen die Marktposition ihrer eigenen Geräte stärken. Anders als bei DOS wäre OS/2 kein Lizenzprodukt von Microsoft, so hat man Einfluss über die Weitergabe an andere Hersteller. Dieser Widerspruch wurde gelöst, indem es eine Basisversion von OS/2 von Microsoft geben würde, eine erweiterte Version man aber nur von IBM kaufen konnte und diese sollte, wenn es nach IBM ging, auch nur mit einem IBM-Computer verkauft werden.

Daneben prallten Firmenkulturen aufeinander. IBM war eine viel größere Firma als Microsoft, mit langen Entscheidungswegen, vielen an einem Projekt Beteiligten. Microsoft zu dem Zeitpunkt noch eine typische Nerd-Firma, die durchaus auch unfertige Produkte raushaute. Microsoft war damals nicht für Softwarequalität bekannt – das sollte auch noch lange so bleiben – während diese bei IBM einen hohen Stellenwert hatte. Sie war bei einem Betriebssystem auch enorm wichtig, warum also machte IBM OS/2 nicht alleine? Die einfache Antwort – IBM meinte sie bräuchten alleine zu lange dazu und Microsoft würde sich durch die DOS-Entwicklung (drei Hauptversionen waren damals schon erschienen) sich so gut in der Systemprogrammierung auskennen, das es von Vorteil wäre mit Microsoft zusammenzuarbeiten.

Die Versionen von OS/2

Die Geschichte der folgenden Versionen von OS/2 will ich gar nicht so stark vertiefen. Ich verweise hier auf die Wikipedia, denn wie schon gesagt ich habe sie nicht benutzt und sollte daher klein Urteil über die Technik fällen. Der Geburtsfehler, der ersten OS/2-Version 1.0 war, das es aussah wie DOS, aber dazu inkompatibel war. Man konnte zwar neue Anwendungen so schreiben, dass sie unter beiden Betriebssystemen liefen, aber existierende DOS Anwendungen – und davon gab es 7 Jahre nach DOS 1.0 etliche – liefen nicht unter OS/2. Damit war dem System schon ein Nischendasein beschieden.

Während man weiter an OS/2 arbeitete – mit Version 2.0 sollte nun auch die grafische Oberfläche erscheinen, kam es zum Bruch der Allianz. Microsoft sah OS/2 als wenig erfolgsversprechend an und setzte auf Windows. Zum einen ermöglichte Microsoft ein Durchbruch in der Entwicklung endlich das Debuggen von 286-er Code im Realmode und damit endete die Zeit als Windows nur eine Shell auf DOS war (bei den Versionen 1,0 bis 2.x). Erstmals konnte Windows mehr Speicher als die 1 MByte nutzen und es konnte DOS-Programme ausführen ohne das diese Windows gefährdeten oder man Windows verlassen musste. Windows 3.0 erschien 1990. OS/2 2.0 mit ähnlichen Leistungen dagegen erst 1992. Gleichzeitig initiierte Microsoft eine Windows Version, die anders als das "normale" Windows für Kunden gedacht war, denen Stabilität wichtig war. Diese Windows NT (NT = New Technology) Serie kam schnell voran, weil man von DEC die Mannschaft übernommen hatte, die dort die legendären Betriebssysteme wie VMS der VAX entwickelt hatte. Damit hatte OS/2 auch im Umfeld von Geschäftskunden, bei denen nicht einfach der Computer mal so abschmieren dürfte, einen Konkurrenten.

Damit war eigentlich mit dem Erscheinen von OS/2 2.0 im Jahr 1992 schon das Rennen gelaufen – Windows 3.0 und 3.1 verkaufen sich bei Privatpersonen gut, Firmenkunden griffen meist auf Windows NT zurück, nur Versicherungen und Banken schwörten noch lange auf OS/2. In den technischen Features hinkte OS/2 immer Windows hinterher. Als Version 2.0 z.B. 1992 erschien, war Windows 3.1 aktuell. Die Version nutzte (endlich) den 80386 und seine Möglichkeiten Prozesse zu isolieren (auch wenn der 32 Bit Befehlssatz noch nicht unterstützt wurde). OS/2 aber immer noch den 80286 Befehlssatz, obwohl diese Rechner kaum noch verkauft wurden.

Es gab Versuche Windows-User abzuwerben. Version 3.0 von OS/2 konnte Windows Programme ausführen. Ich kam mit Version 3.0 mal in Kontakt als Vobis um sich von Microsoft zu emanzipieren, OS/2 auf ihren Highscreen PC installierte und eine Käuferin sich über die Langsamkeit von Word (Windoes Programm) beschwerte und mich um Rat fragte. Schnell war klar, dass das System mit der Windows Emulation mehr Speicher brauchte, als die 4 MB die im Computer steckten und ich gab ihr den Tipp, entweder Windows zu installieren oder Speicher aufzurüsten. Sie hat sich dann fürs Erstere entschieden.

Die letzte Version von IBM hatte noch eine Spracherkennung integriert. Das war in den Neunzigern ein „Buzzword“. IBM hatte die Spracherkennung entwickelt und so natürlich dies als Pfund genutzt, um damit wuchern zu können. Wie ich aber feststellte, brauchte man einen ziemlich schnellen Rechner. Mein 80486 mit 100 MHz war zu langsam dafür. Dabei war der Rechner für seine Zeit (1996) immerhin noch im Mittelfeld der aktuellen Rechenleistung. Die letzte Version wurde schon verschenkt, ich hatte sie als Beilage bei einer Computerzeitschrift erworben. Mit der Version stellte IBM die Entwicklung ein. Es gab noch einige Nachbesserungen bis 2001 die letzte Version 4,52 erschien. Inzwischen hatte sich auch IBM von der x86 Plattform abgewandt. Bei den PC-Verkäufen sank der eigene Marktanteil stetig. Später verkaufte die Firma PC und Serversparte an Lenovo. So machte ein eigenes Betriebssystem für x86 Architekturen keinen Sinn, zumal es sich nicht am Markt durchsetzen konnte.

Hätte IBM mit OS/2 erfolgreich sein können?

Diese hypothetische Frage ist nicht leicht zu beantworten. Ich meine nein. Selbst wenn man die besprochenen Fehler vermeiden hätte und gleich ein grafisches OS auf Basis des 80386 Befehlssatzes allein entwickelt hätte, und einen Kompabilitätsmodus für DOS gehabt hätte, denke ich hätte IBM es nicht geschafft. Das Grundproblem lag nämlich im Ansatz. IBM sah sich in der zweiten Hälfte der Achtziger Jahre als Erfinder der PC-Plattform, aber unter Marktdruck durch zahlreiche Nachbauten. Diese waren immer billiger als IBM, oft auch leistungsfähiger z.B. mit einem schnelleren Prozessor. OS/2 war ein Stein in einer Strategie diesen Klonherstellern das Leben schwer zu machen. Man wollte wieder im Alleinbesitz der Technologie sein, sowohl bei der Hardware wie auch Software und dann entscheiden, wer diese nutzen darf und zu welchen Gebühren. Zeitgleich entwickelte IBM auch die PS/2 Linie, neue x86 PC mit neuen technischen Features. PS/2 stand für Personal System/2- die Namensähnlichkeit zu OS/2 für Operation System/2 ist offensichtlich. (Der Schrägstrich dahinter scheint ein typisches IBM-Nomenklaturelement zu sein, denn auch Rechner hießen z.B . System/370).

Mit PS/2 wurde der Micochannel eingeführt, erheblich schneller als der ISA-BUS des IBM PC AT, benutzerfreundlicher mit der Möglichkeit der Konfiguration von Steckkarten ohne DIP-Switches um Interrupts und Portadressen einzustellen. Man führte VGA und die PS/2 Maus-/Tastaturschnittstelle ein (gibt es beides bis heute) und die 1,44 MB Diskettenlaufwerke. Alles tolle technische Features. Der Microchannel Bus war aber patentgeschützt, während andere Hersteller die PS/2 Buchsen, Disklaufwerke oder die API der VGA-Karte nutzen konnten und es so Nachbauten dieser PS/2 Bestandteile für die „normalen“ PC gab, verlange IBM für den Micochannel Lizenzgebühren und wollte entscheiden, wer dafür Hardware baute. Der Bus wurde zum totalen Fiasko. Denn er war inkompatibel zum etablierten ISA-Bus. Andere Firma wie Compaq erweiterten einfach den ISA Bus, hängten an den 16 Bit Stecker von ISA einen zweiten (getrennten) Stecker für die Signalleitungen des 80386 Prozessors an, die ein 80286 natürlich nicht hatte. In den ESISA genannten Sockel passten dann neue EISA Karten oder eben alte ISA Karten, die nur den vorderen Stecker nutzten und genau das war es, was die Kunden wollten.

Genau diesen Bruch mit alten Zöpfen hatte aber IBM aber auch mit OS/2 vor. Nur klappte das dort nie wegen der Konkurrenz durch Windows. Ein noch so tolles OS/2 wäre aber sinnlos, wenn die alte DOS-Software nicht läuft, selbst wenn man es frei kaufen könnte und es nicht nur auf einem IBM PC läuft.

 

16.11.2020: Ulysses 2

Auf den heutigen Blog, wieder mal eine technische Spinnerei kam ich durch meine Arbeit an Solar Orbiter. Solar Orbiter wird durch mehrere Swing-Bys an der Venus die Bahnneigung auf bis zu 33 Grad erhöhen. Damit sieht er die Regionen mittlerer Breite auf der Sonne besser. Es geht um eine Sonde, die auch die Sonnenpole erkunden kann.

Okay, Zeit mal etwas Grundlagen zu bringen. Die Erde umkreist die Sonne an ihrem Äquator, zumindest nach Definition (einen Äquator bei der Sonne zu definieren ist mangels fester Oberflächenmerkmale etwas schwierig). Wir sehen die Sonne also verzerrt, ähnlich wie geostationäre Satelliten die Erde sehen. Schaut man sich z.B. ein Metosatbild an auf dem Europa drauf ist, dann ist das schon sehr verzerrt und Europa erstreckt sich nur vom 40 bis zum 60 Breitengrad, hin zu den Polen (Island, Norwegen, Grönland) wird die Verzerrung noch stärker. Entsprechend verzerrt sehen wir die höheren breiten der Sonne.

Der Blickwinkel wäre egal, wenn die einfache Vorstellung der Sonne von einem Gasball stimmen würde, bei der die thermonuklearen Prozesse im Inneren praktisch alles dominieren und so Unterschiede an der Oberfläche klein sind. Doch dem ist nicht so. Die Sonne hat Aktivitätsgebiete und sie rotiert nicht überall gleich schnell, dadurch verwickeln sich Magnetfeldlinien und es kommt zu Sonnenflecken, Flares, Prototuberanzen. Die Erforschung dieser Phänomene abseits des Äquators ist eine der Aufgaben von Solar Orbiter.

Weitaus höhere Breiten, nämlich 80 Grad erreicht schon vor Jahrzehnten die Raumsonde Ulysses. Übrig geblieben als europäischer Teil eines ESA-NASA Duos erforschte sie 20 Jahre lang die Sonne. Leider ohne Kamera nur mit Instrumenten für Teilchen und Feldern. So hohe Breiten zu erreichen, ist nicht einfach. Will man die Bahnneigung einer Sonde, die, wenn sie die Erde verlässt, aber keine Bahn nach Innen oder Außen einschlägt, die Bahngeschwindigkeit der Erde hat um 90 Grad drehen so muss man die 2-fache Energie aufbringen, die sie hat. In Geschwindigkeitsäquivalenten ist das die 1,41-fache momentane Geschwindigkeit. Bei der Erdbahn mit 29,8 km/s also 42,1 km/s. Das ist enorm viel. Dagegen braucht man um das Sonnensystem zu verlassen nur 16,7 km/s und selbst ein Sturz in die Sonne braucht nur 25,7 km/s. Das ist heute selbst mit Ionentriebwerken nicht durchführbar.

Ulysses nutzte daher ein Swing-By an Jupiter. Jupiter kann zwar auch nicht die Geschwindigkeit um 42,1 km/s ändern, aber die Sonde hat, wenn sie Jupiter erreicht, nur noch eine Geschwindigkeit von 7,4 km/s und dann beträgt die Geschwindigkeitsänderung nur noch 10,5 km/s und das schafft Jupiter. Der Preis war aber, dass Ulysses nun sich auf einer Bahn befand, deren Aphel bei Jupiter lag. Das bedeutet, nur alle 5 Jahre passierte sie die Pole, was jeweils nur wenige Monate dauerte. Ich denke das kann man heute besser machen und habe Ulysses 2 ausgedacht.

Ulysses 2 reduziert durch Ionentriebwerke ihre Geschwindigkeit nach der Umlenkung durch Jupiter, bis sie wieder eine Bahn mit einer kleinen Periode erreicht hat. Natürlich ist es dann logisch schon Ionentriebwerke zu nutzen, um bis zu Jupiter zu kommen. Doch in der Praxis zeigte sich, das es dann doch kompliziert wurde.

Designauslegung

Ziel sollte es sein, eine Raumsonde von etwa 600 bis 800 kg in einen polaren Sonnenorbit mit einer möglichst kleinen Umlaufszeit zu bekommen. 600 bis 800 kg sind zwar deutlich weniger, als Solar Orbiter wiegt (1,72 t), aber immerhin in der Größenordnung einer Voyager und erlauben so etwa 100 bis 150 kg Instrumente.

Die Sonde sollte auf RTG verzichten, um die Kosten zu begrenzen. Die Solarzellen sollen bei Jupiter mindesten 500 Watt für den Betrieb liefern.

Geschwindigkeitsabschätzung

Für eine klassische Hohmann-Transferbahn zu Jupiter kann man die Geschwindigkeit leicht berechnen. Sie beträgt bei einer 150 x 780 Millionen km Bahn 38.428 m/s, also 8.748 m/s mehr als die Kreisbahngeschwindigkeit der Erde in dieser Entfernung. Je nach Position von Erde und Jupiter schwankt das etwas aber mit 9 km/s ist man auf der sicheren Seite. Bei Ionentriebwerken ist es anders. Durch die lange Betriebszeit erhöht sich laufend das Perihel und damit auch die Geschwindigkeit. Wie stark hängt von dem Verhältnis zwischen Betriebsdauer und Umlaufszeit ab. Beim Herausspielen aus einer erdnahen Umlaufbahn ist es wegen der kurzen Umlaufszeit extrem – man benötigt und 7 km/s, also fast die gleiche Geschwindigkeit wie die anfängliche Umlaufsgeschwindigkeit, während es bei einem chemischen Antrieb nur etwa 3,2 km/s sind. In einer Sonnenumlaufbahn ist es schwieriger und hängt auch mit dem Antriebskonzept ab. Ich habe für eine erste Schätzung mit 12 km/s gerechnet. Ist es mehr, so sinkt die Nutzlast ab, bei weniger steigt sei an. Diesselbe Geschwindigkeitsänderung benötigt man nach dem Drehen der Bahnebene durch Jupiter. Bei 24 km/s macht dann auch das Herausspiralen aus dem Ergravitationsfeld mit 7 km/s nicht mehr viel aus und in der ersten Simulation habe ich daher auch in einer 400-km-Erdumlaufbahn begonnen

Vega – Erdumlaufbahn

Der erste Ansatz bestand in einem Start aus einer 400 km hohen Erdumlaufbahn. Eine Vega-C kann sicher 3,2 t in eine solche Erdumlaufbahn befördern. Mit der Stromversorgung nur aus Solarzellen gibt es eine Leistungsbegrenzung: die größten Flügel haben etwa 10 kW Leistung. Von den sechs Seiten eines Quaders sind maximal vier für Solar Arrays nutzbar. Im ersten Ansatz nahm ich drei der Seiten für Solar Arrays von je 10 kW Leistung bei einer Masse von 353 kg. Eine Seite sollte für die Instrumente frei bleiben. Bei den Triebwerken nahm ich RIT-2X, die kommerziellen Ionentriebwerke mit dem höchsten Impuls. Weitere Triebwerke haben zwar höhere spezifische Impulse, aber sind noch nicht ausreichend erprobt bzw., haben einen zu hohen Leistungsbedarf. Ich nahm 7 Triebwerke, etwas mehr als es an Leistung gibt, doch Ionentriebwerke sind regulierbar, was Schub und Leistungsbedarf geht. Von 3,2 t Startgewicht macht der Treibstoff mehr als die Hälfte (1,7 t ) aus. 818 kg bleiben für die Nutzlast. Nach 316 Tagen hat die Sonde die Erde verlassen und wiegt nun nur noch 2.686 kg. Es dauert dann 5 Jahre 262 Tage um eine Bahn zu Jupiter (780 Mill. km) zu erreichen. Das Perihel steigt dabei auf 403 Millionen km. Nach 6 Jahren 285 Tagen ist Jupiter erreicht.

Sojus – Sonnenumlaufbahn

Ich dachte mir das sollte doch schneller gehen. Bei gleichbleibender Leistung – hier bin ja schon am Anschlag, geht das, indem man nicht aus einer Erdumlaufbahn startet. So kann man das Gewicht der Tanks für den Treibstoff einsparen denn man für die erste Etappe benötigt. Weiterhin kann eine Rakete eine Sonde auf leichte Überschussgeschwindigkeit beschleunigen. Eine Sojus 2.1B kann maximal 2,3 t auf Fluchtgeschwindigkeit beschleunigen. Ich bin von 2 t ausgegangen und nun 24 km/s Geschwindigkeitsänderung. Die Nutzlast sinkt nun auf 550 kg. Nun geht es erheblich schneller. Nach 2 Jahren 213 Tagen ist die Bahn erreicht. Jupiter nach 4 Jahren 38 Tagen und die 315 Tage in der Erdumlaufbahn fallen weg. Man spart also über 3 Jahre Missionszeit ein.

Nun kann die Sojus aber eine leichte Überschussgeschwindigkeit erreichen. Bei 2,1 t maximaler Nutzlast (100 kg für den Nutzlastadapter) sind es 11 km²/s², entsprechend 3,3 km/s in einer Sonnenumlaufbahn. Bei 30 km/s Umlaufgeschwindigkeit könnte man also 33,3 oder 26,7 km/s erreichen, das entspricht Transferbahnen zum Mars und der Venus.

Hier mal das Ergebnis im Vergleich:

Option

Startbahn [Mill. km]

Endbahn [Mill. km]

Geschwindigkeitsänderung

Dauer

Endmasse

Keine Überschussgeschwindigkeit

150 x 150

377, 2 x 780

13.560 m/s

4 Jahre 38 Tage

1.431 kg

+ 3,3 km/s

150 x 242,5

300,9 x 780

8.560 m/s

8 Jahre 28 Tage

1.504 kg

- 3,3 km/s

97,7 x 150

295 x 780

15.190 m/s

8 Jahre 181 Tage

1.375 kg

-3,3 km/s Betrieb bis 154 Mill km.

97,7 x 150

135 x 780

11.280 m/s

4 Jahre 289 Tage

1.514 kg

Wie zu erwarten ist die benötigte Geschwindigkeitsänderung und damit Restmasse abhängig von der Startbahn. Erstaunlich ist aber das beide Optionen (nach Innenn/Außen) mehr Zeit benötigen, weil die Sonden relativ schnell große Sonnendistanzen erreichen, wo sie nur noch langsam beschleunigen und die Umlaufszeit schon hoch ist.

Begrenzung der Betriebsdauer

Das ist optimierbar, indem man die Ionentriebwerke nur bis zu einer bestimmten Entfernung betreibt. Vor allem bei der Option sich der Sonne zu nähern. Die beiden Bilder hier zeigen die Bahnen nach Innen – einmal mit dauerndem Betrieb und einmal nur beim Betrieb bis in 154 Millionen km Distanz. Man sieht das sehr bald eine erste Bahn (132,9 x 327 Mill. Km, Umlaufszeit 1 Jahr 334 Tage) durchlaufen wird, dann aber im zweiten Bahnabschnitt man die Endgeschwindigkeit erreicht. Positiver Nebeneffekt: wenn ich von demselben Tatbestand wie bei Ulysses ausgehe, nämlich das die Bahn gedreht wird, das Perihel aber bleibt, dann hat man ein niedriges Perihel von 124 Millionen km. Das bedeutet nicht nur, die Reise zurück geht schneller, durch das niedrige Perihel kann man auch bei der Rückreise effektiver abbremsen.

Rückkehr

Diese Bahn machte ich zur Ausgangsbahn der Rückkehr. Sie sollte schneller gehen, denn das Gefährt ist nun ja leichter. Das Problem: Arbeiten die Ionentriebwerke dauernd, so senken sie das Perihel stark ab, da bei sieben Triebwerken zumindest eines schon in 2,7-facher Erdentfernung arbeiten kann. So kommt man auf ein Perihel von nur 75 Mill. Km Distanz. Ich habe, da die Sonde nach dem Start 98 Mill. Km Distanz erreichte, als Obergrenze 110 Millionen km für das Perihel gesetzt und wenn man die Triebwerke nur bis 179 Mill. km Entfernung betreibt, kommt man so auf eine 110 x 191 Mill. km Bahn mit einer Periode von 1 Jahr. Das Abbremsen dauert 3 Jahre 131 Tage, davon nur 146 Tage angetrieben. Zusammen ist die Sonde nun über 8 Jahre unterwegs anstatt 5 Jahre wie Ulysses. Nur hatte Ulysses nur zwei Polpassagen in 5 Jahren, diese Sonde zwei in einem Jahr. Die Gesamtgeschwindigkeitsänderung liegt knapp unter 20 km/s, es bleiben noch 123 kg Treibstoff im Tank, was wenn man 23 kg für Lage- und Bahnänderungen reserviert, die reine Nutzlast auf 670 kg ansteigen lässt, und damit in dem Bereich der angestrebt wird.

Optimieren

Man könnte aber auch mit 600 kg Sonde leben und die 70 kg Treibstoff nutzen, um die Bahn zu zirkularisieren. Man kommt so auf eine 108,3 x 148,1 Millionen km Bahn mit einer Periode von 295 Tagen, also noch einige Passagen mehr.

An der Reisezeit drehen kann man, indem man ein viertes Paneel installiert. Das verdeckt natürlich die Instrumente, wenn diese an einer Seite montiert sind, aber man kann es um 90 Grad drehen, wenn die Sonde im Endorbit ist. Da die Sonne nur einen kleinen Durchmesser von etwa 1 Grad hat, können Instrumente an dem dann hochkant stehenden Flügel vorbei schauen, wenn sie weit genug von dessen Achse entfernt sind.

Mit 4 Flügeln sieht die optimale Lösung dann so aus:

Unter Verbrauch des gesamten Treibstoffs kann man eine 106,5 x 162 Mill. km Bahn erreichen. Begnügt man sich mit einer 102,3 x 200 Mill. km Bahn (Umlaufszeit etwa 1 Jahr) so bleiben 50 kg Resttreibstoff übrig. Dies könnte die in diesem Falle geringere Nutzlast von nur 528 kg ausgleichen. Die Gesamtmission ist aber mit 7 ½ Jahren kürzer.

Die letzte Möglichkeit die ich untersucht habe ist ein Swing-By an der Venus. Das Perihel liegt ja deutlich innerhalb der Venusbahn. Wenn man das Ionentriebwerk bis zur Venus nicht in Betrieb nimmt, kann die Venus das Aphel auf 234 Millionen km anheben – erst mal keine Verbesserung verglichen, damit das man dies auch erreicht hätte, wenn man direkt nach außen gestartet wäre. Aber nun ist man 109 anstatt 150 Millionen km von der Sonne entfernt kann besser beschleunigen. Tut man dies mit 12 Triebwerken, da man ja auch mehr Leistung hat, nur bis 122 Millionen km Distanz so erreicht man in 4 Jahren 129 Tagen den Jupiter (3 Flügel), das Perihel bleibt bei 110 Millionen km und man muss nur um 5,6 km/s Geschwindigkeit aufbringen. Nach 2 Jahren 250 Tagen ist eine 110 x 190 Mill. Km Bahn mit einer Umlaufszeit von 1 Jahr erreicht, bei komfortablen 228 kg Resttreibstoff, welche die Nutzlast auf 887 kg anheben würden, der beste Wert von allen durchgespielten Optionen. Die Gesamtreisedauer liegt bei knapp über 8 Jahren.

Das geht natürlich nur, wenn alle drei Planeten ideal zueinanderstehen. Allerdings bin ich hier optimistisch. Jupiters Umlaufszeit ist so viel größer als die der beiden anderen Planeten das er sich zwischen einer gemeinsamen Periode von Erde und Venus (584 Tage) wenig bewegt und Ionentriebwerke können leicht die Bahnform anpassen.

Fazit

Ulysses 2 wäre technisch umsetzbar und möglich. Es wäre keine so schwere Sonde wie Solar Orbiter aber doch doppelt so schwer wie Ulysses. Es gibt eine Reihe von Optionen, die die Sonde innerhalb von 8 Jahren in eine elliptische Bahn um die Sonnenpole mit einer Periode von etwa 1 Jahre bringen. Sie wäre dann 2/3 der Zeit jenseits von 30 Grad solarer Breite, das Maximum das Solar Orbiter erreicht. Zwar wäre sie weiter entfernt – etwa 110 bis 114 Mill. Km aber dafür benötigt sie auch keinen besonderen Thermalschutz, sondern nur den, den auch eine Venussonde benötigt..



 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99