Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 607: 1.1.2021 -

1.1.2021: Die 2021 SpaceX-Rückschau und die Wette für 2021

Vorab eine Bemerkung: ich schreibe den Artikel am 19.12., zu einem Zeitpunkt, bei dem noch der letzte Start von SpaceX aussteht, gehe aber davon aus, dass dieser noch dieses Jahr erfolgt und man so eine Bilanz ziehen kann. Es sind 25 Starts, erheblich mehr als letztes Jahr (13) und mehr als 2018, dem bisherigen Rekordjahr. Also alles in Butter? Nicht ganz, denn zumindest die Starts seitens Kunden, egal ob kommerzielle oder staatliche nimmt ab. 2018 waren alle Starts von zahlenden Kunden, 2019 waren trotz nur 13 Starts schon zwei für Starlink, das heißt, die Zahl der gebuchten Starts hat von 21 auf 11 abgenommen und dieses Jahr sind von den 25 Starts auch 14 für Starlink, also ebenfalls 11 kommerzielle Starts. Das scheint die dauerhafte Nachfrage zu sein, nachdem es die ersten Jahre immer mehr Starts gab, auch weil SpaceX in den Zeitplänen immer den eigenen Ankündigungen hinterherhinkte. Auch für dieses Jahr haben sie nur für Starlink 24 Starts prognostiziert. Ich habe dagegen gewettet mit maximal 17 Starts und denke ich habe erneut gewonnen.

Ansonsten können sie nun endlich die Crew-Flüge aufnehmen, nachdem ein Testflug erfolgreich war. Die erste Mannschaft ist auch schon oben. Einen Vorvertrag für einen reinen Flug mit Weltraumtouristen ist auch schon unterschrieben. Konkurrent Boeing hatte dagegen Probleme mit seinem Starship. Die hatte SpaceX letztes Jahr. So gesehen geben sich die beiden Firmen nichts. Die interessanteste Entwicklung ist natürlich die des Starships und da wurde einem echt was geboten:

Es folgten einige kleine Tests von 1, 20 und 150 m Höhe, bei denen sich das Starship seitwärts bewegte – sicher nicht geplant, aber SpaceX glaubten, das dies nur an einem Triebwerk liegen würde. Nicht unmöglich kann man ein Triebwerk auch starr einbauen, aber doch unwahrscheinlich, wenn es nur drei Triebwerke gibt und wie der letzte Test zeigte, bei dem die Triebwerke auch geschwenkt wurden, sind sie beweglich eingebaut, sonst könnte das Starship wohl auch kaum 90 Grad in einigen Sekunden drehen, wie es vor der Landung der Fall ist. Auch dieser Test war mit einem Triebwerksausfall kurz vor der Landung nicht ganz erfolgreich. Als wesentlichste Folgerung dürfte man mehr Treibstoff für die Landung mitführen, was die Nutzlast absenkt.

Aber eigentlich sollte ja dieses Jahr der erste orbitale Startversuch der BFR stattfinden, kein Hopser über 12,5 km. Immerhin scheint Musk nun realistischer zu sein und spricht nun von zwei Jahren bis zum ersten orbitalen Start, zusammen mit dem vergangenen Jahr also drei nicht eines und vier Jahren ab jetzt bis zum ersten bemannten Einsatz.

Die grundlegende Frage bei beiden Projekten ist ja, ob sie sich finanziell lohnen. Bei Starlink gebe ich gerne zu, fehlt mir das Wissen um es zu beurteilen. Aus allgemeiner Lebenserfahrung weiß ich aber das eine terrestrische Lösung immer billiger als eine Satellitenlösung ist und mit immer weiter steigenden Ausbau der terrestrischen Netze – auch für neue Mobilfunkanwendungen, Stichwort 5G, die Zahl der potenziellen Kunden kleiner wird. Zudem wird Internet über Satellit schon angeboten, zu kleineren Kosten, als sie von SpaceX bekannt sind und da ist der große Run bislang ausgeblieben. Daher sehe ich dem skeptisch entgegen, nicht nur bei SpaceX, sondern auch bei Oneweb.

Etwas mehr Fachkenntnis bilde ich mir beim BFR ein. Hier spielt zum einen die Nachfrage, zum anderen die Kosten eine Rolle. Die Nachfrage seitens externer Kunden sinkt, das beweisen die letzten Jahre, nach dem Hype auf einen konstanten Wert von etwa einem Dutzend Starts pro Jahr. Dann wird spekuliert, das SpaceX damit schneller sein Satellitennetz aufbauen kann, das ja zuerst 4.400, dann 12.000 und zuletzt 42.000 Satelliten umfassen sollte. Doch dann sollte die Firma ja schon jetzt das Interesse haben das Netz schneller auszubauen, was sie ja mit der Falcon Heavy machen könnte. Nimmt man die Startpreisinfos der SpaceX Website, wäre das sogar günstiger, denn bei dreifacher Nutzlast kostet diese 50 % mehr. Vor allem aber würden dreimal weniger Starts ausreichen, das heißt, SpaceX hätte dieses Jahr nicht rund 840, sondern 2.520 Satelliten im Orbit und damit das Netz zu mehr als der Hälfte in der ersten Stufe fertiggestellt. Das Zweite ist das Hoffen auf völlig neue Kunden, verspricht uns Musk doch seit Jahren eine drastische Kostenreduktion der Startpreise um den Faktor 100. Nur gibt es seit Jahren auch die Wiederverwendung der ersten Stufe der Falcon 9 und das hat sich bisher nur in einer 20%-Preisreduktion niedergeschlagen. Wie die Bilanz externer Aufträge zeigt, hat sich dies nicht in mehr Aufträgen niedergeschlagen. Und einen Bedarf für 100 t Nutzlast gibt es nicht, den gibt es nicht mal für die 70 t der Falcon Heavy, sonst würde die sicher öfters fliegen.

Die zweite Frage ist ob die BFR überhaupt so viel billiger wird. Auch wenn SpaceX keine Daten veröffentlicht, so ist eine größere Rakete mit der gleichen Technologie immer teurer. Die BFR wiegt mehr als das dreifache der Falcon heavy. Von der Falcon 9 kann man nach SpaceX eigenen Angaben rund 60 % der Kosten einsparen. 30 % mehr, wenn Oberstufe und Nutzlastverkleidung wiederverwendet werden. Das heißt bei vollständiger Wiederverwendung könnte man maximal nochmals die Hälfte der bisherigen Einsparungen hinzugewinnen. Demgegenüber haben wie eine dreimal schwerere Rakete, also entsprechend teurere Rakete mit wesentlich anspruchsvollerer Technologie, wie Hochdruck-Triebwerken mit gestaffelter Verbrennung, Wiedereintritt mit Orbitalgeschwindigkeit und die Erfordernis eines Hitzeschutzschildes, der schon beim Space Shuttle nicht so unproblematisch war. Das verteuert aber einen Träger. Dafür transportiert die BFR nur 30 % mehr Nutzlast als eine Falcon Heavy. Also unter diesen Umständen würde es mich wundern, wenn sie pro Start billiger als eine Falcon Heavy wäre und wie schon geschrieben, für diese gibt es keinen Markt.

Die Wette für 2021

Das leitet mich zu meiner jährlichen Wette über. Bisher habe ich immer eine Wette abgeschlossen die bis Jahresende begrenzt war. Das wird so langsam langweilig, daher habe ich eine längerfristige Wette abgeschlossen. Im April veröffentlichte SpaceX einen „Starship Users Guide“. Ich schreibe das in Klammern, weil die Informationen in dem Users Guide sich zu anderen Guides von ULA und Co genauso verhalten wie der Informationsgehalt der Bild Zeitung zu dem Brockhaus. Inzwischen ist er wieder vom Netz, vielleicht bis zur Veröffentlichung wieder in einer neuen Fassung online. Vielleicht muss man auch nach der gescheiterten Landung, die ja zeigt, dass man mehr Treibstoff für das Landen braucht, Treibstoff, der von der Nutzlast abgeht, die Nutzlast nach unten korrigieren. Ich habe ihn, weil es das schon mal bei der Falcon 9 gab, aber lokal gesichert. Daraus habe ich folgende Tabelle übernommen:


Ich glaube nun, dass die 21 t GTO Nutzlast nicht erreicht werden, zumindest nicht mit dem derzeitigen Starship (Wikipedia gibt an, dass es 120 t trocken wiegt, bei 1.200 t Treibstoff, die erste Stufe sollte 3.400 t Treibstoff haben, auch hier, weil die Angaben in der Zukunft sicher angepasst werden, die Version der Wikipedia von heute. Ich habe das mal für den Blog überschlagen. Mit 120 t Masse kann ein Starship, wenn es 100+ t Nutzlast hat, nie 21 t GTO erreichen, dazu müsste es erheblich leichter sein oder die 100+ t kann man auch als 150+t deuten und dann würde da auch 150+ t stehen. Diese Bemerkung muss sein, weil immer wieder SpassX-Fans bei denen Begeisterung und Wissen diametral entgegengesetzt oder umgekehrt proportional sind, immer wieder alte Wetten rausziehen, die sich auf andere Versionen der Falcon bezogen, um zu beweisen, dass ich unrecht habe – völlig ignorierend das die erste Version der Falcon 333 t beim Start wog und die heutige 549 t. Also offiziell die Wette:

Ich wette, das ein Starship, wenn es 120 t trocken wiegt, keine 21 t GTO Nutzlast hat.

Die ersten Starships sollen ja schwerer sein, aber man kann auch dann leicht ausrechnen wie viel GTO Nutzlast die hätten, das gleiche gilt, wenn es mal leichter als 120 t werden würde.

Zuletzt noch eine Bemerkung. Ich habe mir mal die Mühe gemacht auszurechnen, was die BFR ohne Wiederverwendung transportieren könnte. Das basiert auf den publizierten spezifischen Impulsen (3240 / 3719) und Schub (.2200 kN Boden, 2.500 kN Vakuum). Als Voll-/Leermasseverhältnis habe ich 20 angenommen, das ist eher zu „schlecht“ als zu gut. So was erreichte die S-IC mit relativ schweren F-1 Triebwerken, getrennten Tanks und Technologie der Sechziger Jahre. SpaceX reklamiert 30 für die Falcon 9 Erststufe, auch wenn das meiner Ansicht nach etwas hoch ist, aber 20 sind eher zu niedrig bei Hochdrucktriebwerken, Li-Al Legierungen. Ich halte 24 bis 25 für erreichbar, habe aber mit 20 gerechnet. Ich habe die zweiet Stufe auf 1.000 t Masse verringert und die erste Stufenmasse entsprechend um 200 t erhöht und zwei Triebwerke von dem Starship in die erste Stufe transferiert (30 / 4) anstatt (28 / 6). Diese Version kommt, selbst wenn ich berücksichtige, dass meine Simulation immer etwas optimierter als die Wirklichkeit ist, auf 400 t Nutzlast in einen LEO, nicht 100 t. Also die Wiederverwendung kostet hier wirklich massiv an Nutzlast, in den GTO wären es 180 t und auf eine Fluchtbahn 140 t Nutzlast, das schafft eine wiederverwendbare BFR nur mit mehrfachem Auftanken. Es ändert aber nichts daran, das es auch für eine Rakete mit 400 t Nutzlast keinen Markt gibt.

2.1.2020: Jahreswende ohne Feuerwerk

War es nicht mal ein schöner Jahreswechsel? Einer, ohne das die Notaufnahmen Hunderte von Menschen versorgen mussten, einen ohne Feinstaubnebel, einen ohne Randale durch alkoholisierte Chaoten. Stattdessen ein klassischer Neujahrsbeginn mit Glockengeläut. Retro und das Besinnen auf Traditionen ist ja in und früher läuteten eben die Glocken das neue Jahr ein.

Ich würde mir wünschen das wir dieses Feuerwerksverbot beibehalten. Ich gebe zu, nicht ganz uneigennützig. Ich habe nichts vom Feuerwerk. Ich muss nur jedes Jahr die Reste einsammeln. Manchmal, wenn die Raketen auf dem Dach landen und dann die Dachrinne verstopfen, ist das ziemlich aufwendig. Vor allem aber habe ich zwei Katzen und für die ist Sylvester immer Horror. Es knallt dauernd, nicht über Minuten, sondern das geht schon mittags los. Vermutlich, weil die lauten Böller und Knaller vor allem von Kindern und Jugendlichen gezündet werden. Mein Kater war vorletztes Jahr zwischen 20 Uhr und 13 Uhr spurlos verschwunden, die Karte hat immerhin 2019 bis 23:00 durchgehalten, diesmal waren es 22 / 4 Uhr und 23:58. Für Tiere ist das echt schlimm, weil sie dem Lärm nicht entkommen können. Es ist überall laut, er kommt von allen Seiten. Als Hinterlassenschaft ist dann die ganze Stadt in einen Nebel aus Feinstaub gehüllt, dessen Zusammensetzung aufgrund der Reaktionsprodukte des Schießpulvers noch dazu ziemlich gesundheitsschädlich ist.

Stattdessen hat man Sylvester im engsten Familienkreis verbracht und es ging mal nicht darum zu protzen, das man die aufwendigste Batterie hat. Und ich finde es war schöner so. Könnte man das nicht beibehalten? Gut Ausgangsbeschränkungen, Masken müssen wohl 2021/22 nicht sein. Ein Alkoholverbot, so sinnvoll es sein wäre, wird man auch nicht durchsetzen können. Aber können wir mal nicht das private Rumballern lassen? In ziemlich vielen Städten rund um den Globus ist es eh nicht üblich oder aus Sicherheitsgründen verboten. Inzwischen auch bei uns in immer mehr Städten mit einer brandgefährdeten Altstadt. Anstatt eines privaten Feuerwerks wäre ich für ein Öffentliches. Wir haben bei uns hier auf dem ehemaligen Landesgartenschaugelände jedes Jahr im August immer drei solche von Profis gemanagten Feuerwerke mit Musik. Das ist eindrucksvoller als jedes Privatfeuerwerk, es ist auch von Weitem zu sehen. So machen es auch viele Städte weltweit. Wäre das nicht das beste aus beiden Welten - wer Feuerwerk liebt, kann sich eines ansehen, ohne das seine Gesundheit in Gefahr ist und die Lärm- und Staubbelästigung hält sich in Grenzen und ist auf den Ort beschränkt, wo man es aufführt. Ich würde mir wünschen, dass man diesen Gedanken mal mitnimmt. In anderen Jahren ist so was zu fordern ja fast schon frevel. Dann kommen so sinnreiche Sprüche wie „Freies Böllern für freie Bürger“ (ein beliebter Spruch von Politikern der AFD und FDP, man kann „Böllern“ durch nahezu jedes Verb ersetzen und ein Grundrecht daraus ableiten. Wie doof der Spruch ist, erkennt man an ähnlichen Sprüchen wie „Freies Rasen für freie Bürger“ oder „Freies Kiffen für freie Bürger“). Aber nun hat man mal gesehen, dass es auch ohne Raketen und Böller geht. Der Vorteil eines zentralen öffentlichen Feuerwerks ist ja auch, dass so beiden Fraktionen gedient ist. Diejenigen, die Feuerwerk lieben, können dort hingehen und die denen es gestohlen bleiben kann werden damit nicht zwangsbeglückt, weil der Nachbar meint, ein Feuerwerk abfackeln zu müssen.

6.6.2020: Lügen oder Statistiken – die Klassifizierung macht‘s

Heute erschien eine „Jahreszusammenfassung“ der Starts von SpaceflightNow. Für mich war das Anlass wie jedes Jahr mein Programm Launchlog laufen zu lassen und eine komplette Jahresübersicht zu erstellen. Da ich einige neue Träger hatte deren Kategorisierung ich noch ergänzen musste schaute ich mir die Ausgaben genauer an und siehe da, in meiner 2020 Seite sieht es anders aus. Schon die Schlagzeile „“U.S. companies, led by SpaceX, launched more than any other country in 2020“ kann ich nicht teilen. Bei mir kommen die USA auf 37 Starts, China dagegen auf 39.

Okay, habe ich etwas falsch gemacht. Also zu einer unabhängigen Seite gehen, dem SpaceLaunchReport und siehe da, dort sind es sogar nur 35 Starts. Ich vermute man hat dort die beiden Starts der Astra nicht hinzugezählt, da sie und LauncherOne die einzigen neuen US-Typen sind. Da LauncherOne nur einen Start hatte, muss es die AstraRocket sein. In jedem Falle sind es weniger als China.

Wie kommt SpaceFlightNow nun zu dem Schluss. Ganz einfach, man sucht sich das Kriterium was ein Start der USA ist, selbst aus. Und siehe da, da steht im Text:

Rocket Lab, builder of the light-class Electron rocket family, conducted seven missions last year, with one failure. The company is headquartered in Long Beach, California, and builds engines and other components in the United States, but assembles and launches its rockets in New Zealand.

Electron rockets are set to begin flying from a new launch pad in Virginia this year. Because of Rocket Lab’s U.S. headquarters, its launch statistics are counted under the column of U.S. Companies.“

Aha, es zählt also der Firmensitz. Ich und Ed Kyle haben diese Starts Neuseeland als dem Ort, wo die Raketen entwickelt und gebaut werden und auch gestartet werden zugeordnet. Würde man das Kriterium von SpaceFlightNow auf andere Dinge übernehmen, dann hätte Luxemburg eine beeindruckende Satellitenflotte: SES betreibt 51 geostationäre Satelliten und hat ihren Firmensitz in Luxemburg. Das Kriterium ist also ziemlich blödsinnig. Würde man es auf andere wirtschaftliche Aktivitäten ausdehnen, ich bin mir sicher, dann würden die britischen Jungferninseln und Bermudas in den G7 Club aufgenommen werden.

Das zeigt erneut wie vorsichtig man bei Nachrichten sein muss. Bei den Wutbürgern, Coronaleugnern und Verschwördungstheoretikern wird ja immer gesagt die informieren sich aus dubiosen Quellen oder Facebook-Gruppen. Aber SpaceNews ist ja ein offizielles Nachrichtenmagazin. Ebenso bauen Nachrichten bei uns immer mehr Mist. Als die erste regulare Crew mit der Dragon im Oktober zur ISS aufbrach meldete ZDF Heute und der SWR, das wäre der erste Start von US-Astronauten von den USA aus seit 2011. War es aber nicht, es gab ja schon vorher den Demonstrationsflug früher dieses Jahr. Es war nur der erste reguläre Crew-Flug. Das ist schon ein Unterschied.

Gerade bei den US-Portalen muss man meiner Erfahrung nach sehr vorsichtig sein, weil sie nicht unabhängig sind. Wenn eine russische Nachrichtenagentur über russische Flüge berichtet, nimmt man nicht an, das dies unabhängig ist, doch die USA sollen ja eine freie Mediengesellschaft haben. Meiner Erfahrung nach ist dem nicht so. Wie das Beispiel zeigt, wird subjektiv eingeordnet, damit das eigene Land besser da steht und noch schlimmer, wenn Nachrichten in nicht in die eigene Vorstellung passen, dann werden sie weggelassen. Vor einigen Jahren gab es ebenfalls zu Jahresanfang eine Meldung, dass US-Firmen mehr kommerzielle Aufträge im abgelaufenen Jahr bekamen als andere Nationen. Neben der zweifelhaften Statistik (dort wurden Starts im Rahmen von CRS dazugezählt, die sind aber gar nicht frei ausgeschrieben, also nach dem allgemein akzeptierten Kriterium „kommerziell = frei ausgeschrieben“ keine kommerziellen Starts) fällt auf das dies das einzige Mal war, das eine solche Meldung zu Jahresanfang erschien. Das war in einem Jahr der Fall, in den folgenden nicht mehr und seitdem gibt es diese Meldung nicht mehr. Eigentlich sollten die US Portale die so wohlklingende Nahmen wie „Space.com“, „SpaceDaily.com“, „SpaceNews.com“ ja gemäß ihren Titel über die gesamte Raumfahrt berichten. Tun sie auch, nur eben nicht neutral. Bei einem US-Start gibt es erheblich mehr Berichterstattung inklusive Preview-Storys als bei einem nicht US-Start. Und es werden eben Statistiken geschönt oder nicht passende Nachrichten gar nicht erst veröffentlicht. Also Augen Auf und Gehirn an beim Medienkonsum.

Einen krassen Fall zu Computern sah ich in der vorletzten ct‘ Ausgabe dort gibt es eine Rubrik „Daten und Fakten“ wo auf einer Seite in Grafiken infos zu einem Bereich kommen, diesmal Prozessoren. Dort fand sich folgende Grafiken:

Anders als in der Printausgabe ist die Quelle angegeben und es handelt sich nicht um reale Daten, sondern eine Grafik aus einem 2003 erschienen Science-Fiction Buch! Also bis 2003 wohl richtig, danach erdacht (die Firmen gibt es natürlich auch nicht). Der komplette Artikel (leider nur als Abonnement lesbar):
https://www.heise.de/select/ct/2021/1/2031508450423330232

6.6.2020: Warum hatten Computer früher eine so niedrige Grafikauflösung?

Heute spielt die Auflösung die eine Grafikkarte bietet keine Rolle mehr, zumindest bei der Kaufentscheidung. Die neueste Version der HDMI-Spezifikationen definiert Formate bis 10K, also über 10.000 Pixel in der Horizontalen, Standardkarten beherrschen schon 8 K und Monitore in der Größe gibt es auch, z.B. von Dell (allerdings braucht man dann Adleraugen, denn bei 100 % Sehfähigkeit muss man, um diese Auflösung bei 32 Zoll Diagonale auch würdigen zu können, bis auf 30 cm an den Monitor heranrücken). Erstaunlicherweise entwickelte sich die Grafikauflösung relativ langsam, sprich Prozessoren hatten viel größere Zuwachsraten in Sachen Geschwindigkeit, selbst der Arbeitsspeicher stieg schneller an. Nun gibt es bei einem Monitor eine physikalische Einschränkung – die Pixel muss man ja auch erkennen können. So wuchs in den Neunziger die Bildschirmdiagonale. Bis VGA nutzte man nur die Auflösung aus, die man auf einem 12-Zoll-Monitor nutzen konnte. Der reichte also für ein ganzes Jahrzehnt als Ausgabegerät. Die Auflösung 800 x 600 führte zur Einführung des 14 Zoll Multisync Bildschirms, 1.024 x 768 dann zu 17 Zoll Diagonale und 1.280 x 1.204 zum 19 oder 20 Zöller und der war dann echt schwer. Größer ging es dann nicht, sonst passt das Ding nicht mehr auf den Schreibtisch. Trotzdem war ein Pixel auf einem 19 Zöller bei der „1,2, K Auflösung“ 30 Prozent kleiner als auf einem 12 Zöller bei VGA-Auflösung. Seit etwa zehn Jahren steigt die Auflösung wieder rapide an, die Bildschirmdiagonalen aber kaum. Ein 10 K Monitor hat zwar eine 40 % größere Diagonale als ein 24 Zöller, aber die 5-fache Zahl an Pixeln in jeder Achse.

Für mich selbst sind die digitalen Displays ein Segen. Seit dem 17 Zöller empfinde ich die Auflösung als zu klein. Ich sehe weit unterhalb 100 %. Die Vergrößerungsfunktion von Windows ist nicht wirklich hilfreich, weil Windows nicht, wie man vermuten würde, die Elemente wie Menübars würden dann größer gezeichnet, bei Schriften ist das ja sowieso möglich. Stattdessen rendert Windows in einer kleineren Auflösung wer „125 %“ wählt, hat auf einem 1.920 x 1.080 Monitor tatsächlich eine Darstellung mit 1.600 x 864. Das ist bei digitalen Displays mit festen Pixelgrößen natürlich suboptimal. Aber seit Fernseher auch digital sind, stehen bei mir eben zwei 32 Zoll Full-HD Fernseher auf dem Schreibtisch. Man muss sich nur angewöhnen, die immer mit der Fernbedienung ein/auszuschalten.

Doch nach dem historischen Rückblick nun mal zum Kern des Problems. In den Achtzigern stieg die grafische Auflösung nur langsam an, warum? Nehmen wir mal die Heimcomputer aus. Sie wurden an einen Fernseher angeschlossen, was die Auflösung limitierte, vor allem aber war ihr Arbeitsspeicher zu klein um größere Auflösungen zu ermöglichen. Hier mal eine Übersicht der wesentlichen Sprünge auf der PC Plattform in den Achtzigern.

Jahr

Auflösung

Typischer Speicher eines PC

Geschwindigkeit (IBM PC=1)

1981

CGA: 640 x 200 x 2

16 – 64 KB

1

1984

EGA: 640 x 350 x 4

512 KB

2,5

1987

VGA: 640 x 480 x 4

1024 KB

9

Während der Speicher um das 64-fache größer wurde, der Prozessor 9-mal schneller, stieg die Anzahl der Bildpunkte nur um den Faktor 2,5 an. Dabei braucht man nicht mal einen neuen Monitor. Auch wenn die Ansteuerung anders ist, wurde die Röhre auf den Fertigungsstraßen der TV-Bildschirme gefertigt und selbst VGA lag noch unterhalb der Auflösung des PAL-Standards. Natürlich stieg auch der Speicherplatzverbrauch. Weil EGA und VGA mehr Farben haben, belegt ein VGA-Bild 153,6 KB Speicher, während es bei EGA noch 16 KB sind. Das ist dann also nicht ganz so extrem. Aber es ist doch auffällig, das die Steigerung nicht so extrem ist wie beim Arbeitsspeicher und als Laie meint man ja auch der verbaute Grafikspeicher ist der Hauptkostenpunkt einer Karte.

Ich selbst kam auf die dahinterliegende Problematik, als ich mich für einen Aufsatz (der wohl niemand außer mir interessiert, nämlich den idealen Z80 Heimcomputer) mit der Problematik Auflösungen, Bildschirmspeicher und Zugriff beschäftigte. Ich ging von dem Rechner aus, den ich gut kannte, den CPC. Daher als Einleitung mal die Beschreibung wie dort die Grafik funktionierte.

Der CPC hatte 16 KB seines Arbeitsspeichers als Grafikspeicher. Der Videocontroller war der 6845, der gleiche den IBM in der CGA Karte hatte. Wie bei dieser Karte betrug die maximale Auflösung 640 x 200 Punkte. Für das Folgende wichtig ist das der 6845 ein Videocontroller ist der auf Textdarstellung ausgerichtet. Man übergibt ihm daher alle horizontalen Koordinaten als Zeichenindex, nur in der Vertikalen arbeitet er mit Zeilen, wobei er eine Zeile stellvertretend für die Zeilenposition des Zeichens überträgt und einen Index, der das Bitmuster innerhalb der Zeichenmatrix übergibt. Als Videokontroller generiert er alle Signale, die ein Monitor für den Bildschirmaufbau braucht, wie horizontale und vertikale Synchronisation und er sagt dem Computersystem über seinen Bus, welche Adresse gerade auf dem Bildschirm gezeichnet werden sollte, aber er überträgt nicht die Bytes zum Monitor, das muss man selbst erledigen. Beim CPC erfolgte das durch ein Video Gate Array. Es muss synchron zur Bewegung des Elektronenstrahls die Information bitweise an den Monitor übertragen, wo sie dann zum Aufleuchten oder eben Nichtaufleuchten von Pixels führte. Das geschah damals komplett digital, das heißt es gab meist drei Leitungen für die Grundfarben und noch eine für die Helligkeit mit diesen vier Leitungen konnte man acht Grundfarben in zwei Helligkeitsabstufungen, das ergab die oft eingesetzt 16 Farben darstellen. Analoge Übertragung – in diesem Fall ein Fortschritt zog mit der VGA-Karte ein, das war damals ein Fortschritt, denn es ermöglichte mehr Farben indem nun auch der Signalpegel ausgewertet wurde. Heute ist diese analoge Übertragung bei digitalen Displays aber unangebracht und das Bild unscharf.

Nun zum Ablauf. Ein Grundproblem war, das der Speicher nicht separat war, CPU und Gate Array mussten also sich absprechen, damit sie nicht gleichzeitig auf den Speicher zugriffen, denn bei der damals üblichen Architektur aus 8 Bausteinen mit je 1 Bit breitem Datenbus war es immer so, dass bei jedem Zugriff sich jeder RAM-Baustein angesprochen fühlte, egal ob der Zugriff in den Bildschirmspeicher ging oder nicht. Man nutzte den Maschinenzyklus des Z80 aus. Der hatte immer 4 Takte und Speicherzugriffe gab es immer in der ersten Hälfte. In der zwoten Hälfte konnte das Gate Array dann zugreifen. Einziger Nachteil: So wurden alle Befehle auf ein Vielfaches von 4 Takten gestreckt, denn beim letzten Zyklus konnte ein Befehl auch weniger als vier Takte benötigen. Das verlangsamte den Z80 so, dass er bei 4 MHz so schnell war wie ein Z80 mit 3,2 MHz ohne diese Bremse.

Auf die eigentliche Problematik kam ich, als ich die Auflösung verdoppeln wollte und eine Z80H mit 8 MHz einsetzen wollte. Beim CPC gab es in 1 Mikrosekunde maximal drei Zugriffe: einen von der CPU und zwei vom Gate Array. Das zeigt schon die Problematik. Pro Mikrosekunde mussten für die Bildschirmdarstellung zwei Bytes übertragen werden, die zuerst in einem Schieberegister landeten, denn der Elektronenstrahl übertrug ja einzelne Punkte. Zwei Bytes übertragen (also lesen und schreiben) in einem halben Taktzyklus – das ist eine Ansage. Die Z80 schafft maximal ein Zehntel der geforderten Datenrate, selbst eine Z80 DMA bei 4 MHz nur die Hälfte. Damit dies ging, war das Gate Array mit 16 MHz getaktet – viermal höher als die CPU. Wie sich zeigte, reichte das denn auch gerade aus, denn das ergab 2 MByte/s Datenrate und die geforderte Datenrate betrug:

63 Zeichen pro Zeile x 2 Bytes pro Zeile x 310 Zeilen x 50 Hz = 1,9553 MByte pro Sekunde. Geht man nun auf die doppelte Auflösung so verdoppelt sich auch die Datenrate. Ebenso greift eine Z80 CPU mit 8 MHz doppelt so oft auf den Speicher zu. Pro Mikrosekunde sind es also dann 6 Zugriffe. Als Spitze vier Zugriffe in den 500 ns der zweiten Hälfte der Mikrosekunde. Und das lässt dann nur noch 125 ns für einen Zyklus eines Speicherchips zu. Schaut man sich die Datenblätter an, so sieht das so aus:

Typ

Zugriffszeit

Zykluszeit

4164-120 / 41256-120

120

220

4164-150 / 41256-150

150

280 / 260

4164-200

200

330

41256-100

100

200

6264

100, 120, 150

100, 120, 150

Die „41“ Typen sind die damals gängigen dynamischen RAM mit 1 Bit Datenbreite (4164: 64 Kbit x 1 Bit). Das 6264 ist kein dynamisches RAM, sondern ein statisches RAM und organisiert in 8 kbit x 8. Man stellt sofort fest, das kein dynamisches RAM eine Zykluszeit von 125 ns erreicht. Es reicht nicht die Zugriffszeit, die bei reinem Z80 Betrieb der ausschlaggebende Wert ist (da nach einem Speicherzugriff immer mindestens zwei Takte intern in der CPU abgearbeitet werden), sondern die Zykluszeit ist der wesentliche Wert: Nach dem Auslesen von Daten müssen diese bei dynamischen RAMs wieder aufgefrischt werden. Bei statischen RAMs gibt es diese Notwendigkeit nicht, deswegen ist die Zykluszeit dort gleich lang wie die Zugriffszeit.

Statische RAM wären also eine Lösung. Nur sind die ziemlich teuer. Anfang 1986 kostete ein 4164 RAM 2,80 DM, ein 6264 mit derselben Kapazität 10,30 DM. Eine zweite Lösung sind Multiport-RAM aus denen später auch GRAM also RAM für Grafikkarten entstanden. 1983 gab es das Erste von Texas Instruments. Dieses RAM hat neben dem normalen Port für Schreiben und Lesen einen zweiten nur für das Auslesen. Der ist verbunden mit einem Buffer, in dem die 256 Bits einer Spalte des RAM Chips landen. Diese 256 Bits können dann sehr viel schneller ausgelesen werden als beim normalen wahlfreien Zugriff. Das ist ideal für den Bildschirmaufbau, bei dem ja sequenziell der ganze Bildschirmspeicher 50 bis 60 mal pro Sekunde übertragen wird. Die dritte Lösung, nutzbar aber erst bei größerem Speicher auf der Grafikkarte ist es, die Zugriffe auf mehrere Banks zu verteilen. Hat man zwei Bänke, so halbiert sich die Zykluszeit und nun wird wieder die Zugriffszeit zum bestimmenden Maße. Dann greift die Ausleseelektronik z.B. bei geraden RAM-Adressen immer auf Bank 1 zu und bei ungeraden auf Bank 2. Die EGA-Karte hatte z.B. acht Bausteine des Typs TMS 4416-15, Speicherchips organisiert in 16K x 4 Bit. Daraus wurden vier Bänke konstruiert, bei jedem Byte Zugriff wurden zwei Bausteine angesprochen. So kam man mit den langsamen RAM Bausteinen (minimale Zykluszeit bei einem Lese/Schreibzugriff 330 ns) aus.

Nebenbei musste diese Ausleseelektronik auch recht fix sein. Der im IBM PC/AT eingebaute DMA Kontroller vom Typ 8237 schaffte maximal 600 kbyte/s. Eine EGA-Karte benötigte dagegen bei 60 Hz und nicht sichtbaren Rändern von 33 % mindestens 4,5 MByte/s. Schon auf meinem CPC der nur 2 MByte/s als Bandbreite erforderte, hatte sie daher eine Taktrate von 16 MHz.

Trotzdem lähmte die nur langsame Steigerung der Zugriffszeit die Leistungssteigerung von Grafikkarten. 1986 waren minimal 100 ns Zugriffzeit möglich. 1995 sank das auf 60 ns ab – nur der Faktor 1,6 in fast zehn Jahren. Erst ab 1992 ging die Entwicklung von Grafikkarten mit der Einführung von VRAM, also speziellem Videoram wieder schneller. Zuerst musste man dafür noch einen happigen Aufpreis zahlen, später wurde es zum Standard.

Speziell beim AT-Bus gab es aber eine andere Einschränkung – dessen Busgeschwindigkeit. Sie betrug beim AT-Bus maximal 5,33 MByte/s. Die meisten Grafikkarten wurden aber als 8-Bit Karten vertrieben, da sie so auch ein einen Rechner mit 8088/8085 Prozessor verbaut wurden. Dann sank die Datenrate auf minimal 0,96 MByte/s. Sie war nicht wesentlich für den Bildschirmaufbau, da der Bildschirm direkt an die Karte angeschlossen wurde, aber durchaus für den Datentransfer der CPU in den Grafikspeicher. In der Praxis waren die Einschränkungen noch größer, da um Störungen beim Bildaufbau zu vermeiden alle Veränderungen des Bildschirminhalts nur erfolgten, wenn beim Bildaufbau gerade die nicht sichtbaren Teile dran waren, also die Ränder links und rechts und oben und unten. Das führte schließlich auch zu neuen Bussystemen, zuerst als Vesa Local Bus, im Prinzip eine Speziallösung für den 486-Prozessor und später als genormter Standard der PCI Bus.

Zuletzt noch eine Bemerkung zu monochromer Textdarstellung und Grafik. Sie war schon früher in hoher Auflösung möglich. Das scheint ja ein Widerspruch zu dem gesagten sein, denn nimmt man die reine Pixelzahl, dann erreichte monochrome Textdarstellung schon früh hohe Datenrate. Der MDA Adapter bot 1981 schon 80 x 25 Zeichen in einer 9 x 14 Punktmatrix mithin 720 x 350 Pixel, dasselbe Auflösung erreichte die Hercules Grafikkarte 1993, die auch grafikfähig war, ebenfalls in monochrom. Das entspricht und übertrifft den EGA Standard was die Punkte abgeht. Allerdings war es monochrom, also viermal weniger Information, die übertragen werden musste. Vor allem aber waren Monochrommonitore nachleuchtend. Es machte bei diesen keinen Unterschied ob man das Bild mit 60 Hz oder 25 Hz übertrug, das Nachleuchten war erheblich länger als ein Bildschirmvollaufbau dauerte. Bei 25 Hz entsprechen 720 x 350 Pixel aber dann nur noch 0,7875 MByte/s netto, etwa 1 Mbyte/s mit den nicht sichtbaren Rändern und das lag dann sogar noch unterhalb der Datenrate, die selbst ein 8 Bitter schaffte.

10.12.2020: Herausforderungen für die Titanforschung

Auf den heutigen Blog kam ich durch eine Doku auf ZDF Info: „Das Rätsel des Eismonds“. Mich hat primär die miserable deutsche Umsetzung geärgert. Da gab es enorm viele Fehler. So wurde aus dem Landedatum 14. Januar 2004 der 14 Juni 2004. Beim Übersetzen der Interviews gab es weitere Fehler. Da der deutsche Ton über dem originalen liegt, kann man nur spekulieren, was im Original gesagt wurde, aber aus dem ausgehenden Treibstoff Cassinis für die Lagerung wurde die Hecksteuerung. Bestandteil der Sendung war auch ein Ausblick auf zukünftige Missionen und das will ich aufgreifen und primär mal beschreiben, welche Dinge man gelöst haben müsste.

Zu Saturn kommen

Erst mal muss man zu Saturn kommen. Heute gibt es sehr viele Optionen wie man dies tun kann:

Am einfachsten ist die Frage zu beantworten, wie es rein chemisch geht. Man benötigt für die energieärmste Bahn, eine Hohmann Transferbahn mindestens 15.100 m/s, etwa 1.000 m/s mehr als zum Jupiter. Bisher gab es erst drei Raumsonden, welche diese Geschwindigkeit erreichten: Ulysses, New Horizons und die Parker Solar Probe. Heute kann keine Trägerrakete ohne eine zusätzliche Oberstufe eine Nutzlast auf diese Geschwindigkeit befördern. Das könnte sich mit der SLS ändern, die etwa 4 t auf diese Bahn befördern kann. Dann dauert die Reise knapp über 6 Jahre. Es gibt wie bei anderen Zielen natürlich beliebig viele mögliche Bahnen. Erhöht man die Startgeschwindigkeit, so wird man schneller Saturn erreichen. Da man diese Überschussgeschwindigkeit aber bei Saturn wieder abbauen muss, wird man dies nicht tun, auch bei den anderen Möglichkeiten der Reise. Schneller als 6 Jahre Reisezeit wird es nicht gehen. Allerdings ist es nicht so schlimm, wenn man mit nur wenig mehr Geschwindigkeit ankommt. Cassini erreichte einen ersten Orbit von 19.000 x 9 Mill. km und musste dafür um 630 m/s abbremsen. Kommt man um 2 km/s mehr an (7,5 anstatt 5,5 km/s) so schlägt das in 400 m/s mehr Geschwindigkeitsbedarf nieder, man benötigt dann nur noch 3 Jahre bei rein chemischem Antrieb, müsste auch mit 700 m/s schneller starten, die Halbierung der Reisezeit erfordert also gesamt 1100 m/s.

Praktisch wird man heute mit Swing-Bys Treibstoff einsparen. Ein Vorbeiflug an Venus und Erde spart unter optimalen Umständen rund 3 km/s ein. Cassini machte es sehr gut, hier dauerte die Reise nur ein Jahr länger. Bei Juno, die nur zu Jupiter unterwegs war, stieg die Reisedauer durch einen Erdvorbeiflug dagegen um 2,5 Jahre zu Jupiter. Dafür betrug die gesamte Geschwindigkeit die aufgebracht wurde 13,1 anstatt 14,1 km/s. Bei der Erde als einziges Rendezvours-Ziel ist es mathematisch relativ einfach zu formulieren: man wird eine Sonde auf eine Bahn schicken, die ein vielfaches oder einen einfachen Bruch der Umlaufdauer der Erde hat, z.B. 2 Jahre Umlaufszeit. Als Folge erhält man Vorbeiflüge rund um den Starttag.

Jupiter wurde von Cassini als Sprungbrett genutzt. Jupiter ist von allen Swing-By Möglichkeiten die beste. Vorbeiflüge an den inneren Planeten können den sonnenfernsten Punkt der solaren Bahn anheben, nicht aber den sonnennächsten. Jupiter kann das. Als Folge sinkt die Geschwindigkeit, mit der man bei Saturn ankommt, allerdings erneut auf Kosten der Reisedauer. Selbst wenn man dies nicht ausnützt, muss, man um zu Jupiter zu kommen etwa 1 km/s weniger Geschwindigkeit in Erdentfernung aufbringen. Leider gibt es gemeinsame Startfenster alle 20-21 Jahre, dann aber mit einem grö0ßeren Zeitraum, in dem es eine niedrige Startenergie gibt. 1977 wurde das Startfenster von Voyager genutzt, 1997 von Cassini. Das nächste optimale Fenster liegt um 2038. Der NASA Trajektorie Browser liefert als optimalesten Starttag den 24.10.2038 mit einem Jupitervorbeiflug am 27.10.2040 in 73,8 Jupiterradien Abstand und einer Ankunft bei Saturn am 17.3.2045 mit einem dV von 6,93 km/s relativ zu einer 200-km-Erdumlaufbahn, zusammen also 14,73 km/s. Es gibt aber praktisch jedes Jahr eine Alternative über einen Erdvorbeiflug allerdings teilweise mit einer hohen Geschwindigkeitsänderung nach dem Start. Bei einem Start 2029 kommt man mit einem Erdvorbeiflug auf praktisch diesselbe Gesamtgeschwindigkeit und Reisedauer, muss aber über 2,41 km/s während der Reise ändern und kommt mit 300 m/s höherer Ankunftsgeschwindigkeit an.

Ionentriebwerke und Solarsegel brauchen noch länger, da zu der Reisezeit noch die Zeit hinzukommt, in der der Antrieb arbeitet. Bei Ionentriebwerken ist vor allem nachteilig, das, wenn sie Geschwindigkeit aufnehmen, sie sich von der Sonne entfernen, dadurch aber bei solarer Energieversorgung der Strom für die Triebwerke sinkt und man so kaum noch schneller wird. Als Folge kann es sein das man mehrere zeitintensive Runden um die Sonne drehen muss. Hier wären Kernreaktoren eine Alternative. Vielleicht fällt hier einer als Abfallprodukt für die Mission zu Mars und Mond ab, denn für bemannte Missionen benötigt man Kernreaktoren als Energieversorgung. Alternativ müsste man extrem leichtgewichtige Solarzellen entwickeln oder das Sonnenlicht konzentrieren. Konzepte dafür gibt es aber noch nichts erprobtes. Derzeitig von der Stange verfügbare Solarzellenarrays sind jedenfalls für eine anspruchsvolle Sonde zu klein.

Zu Titan

Bei Saturn angekommen wird man die überschüssige Geschwindigkeit abbauen müssen. Um dies zu minimieren, schwenkt man in eine erste Umlaufbahn mit hoher Apapsis ein mit einer Umlaufbahn von 100 bis 180 Tagen Dauer ein. Die kann man dann durch Vorbeiflüge an Titan absenken. Eine Landesonde könnte auch direkt auf Titan landen.

Das Folgende verläuft dann ähnlich wie bei Cassini. Man wird versuchen durch Titanvorbeiflüge die Umlaufsdauer immer weiter abzusenken. Das grundsätzliche Problem: Es gibt im Saturnsystem nur Titan als massereichsten Mond. Bei Jupiter können Raumsonden wie Galileo, JUICE oder die Europamission vier Monde nutzen, bei Saturn nur Titan und ganz nahe kommt man wegen der Atmosphäre auch nicht an ihn heran. Es wird also sehr viele Vorbeiflüge geben. Der erste Titanvorbeiflug von Cassini brachte z.B. nur 290 m/s Geschwindigkeitsänderung. Mindestens acht Vorbeiflüge werden es also sein, wobei in der Praxis es mehr sein werden, denn jeder neue Orbit sollte so ausgelegt sein, dass er wieder an Titan vorbeiführt.

Ein Orbiter muss dann in eine Titanumlaufbahn einschwenken. Das dazu benötigte dV hängt natürlich von der Ausgangsbahn ab. Da Titan aber nicht sehr massereich ist, ist dies überschaubar. Wegen der dicken Atmosphäre, die bis in fast 1.000 km Höhe reicht, bietet sich beim Orbiter auch das Aerocapture an, man würde ihn mit einem Schutzschild ähnlich dem von Landekapseln (nur hinten offen) umgeben. Aerocapture bietet sich vor allem an, wenn man direkt in eine Umlaufbahn einschwenken will, also nicht langsam den ersten Orbit durch Titanvorbeiflüge abändern will, denn die Aeroshell bedeutet natürlich auch ein Zusatzgewicht, das man gegen den Treibstoffverbrauch bei einer konventionellen Lösung gegenrechnen muss.

Auf Dauer höher ist der Geschwindigkeitsbedarf in der Umlaufbahn um Titan. Titan ist 1,22 Millionen km von Saturn entfernt - klingt nach viel, doch Saturn hat die 95-fache Masse der Erde. Selbst in dieser Entfernung ist seien Gravitationskraft über neunmal stärker als die der Erde beim Mond. Aber schon beim Mond stört die Erde so stark, dass die meisten Umlaufbahnen um den Mond instabil sind und Satelliten nach wenigen Monaten aufschlagen – bei Titan ginge das wegen der Atmosphäre noch schneller. Es scheint aber wie beim Mond Bahnen zu geben, die wenig gestört werden.

Ein Titan Orbiter würde als Hauptaufgabe die Kartierung der Oberfläche mittels RADAR haben. Cassini lieferte wegen der Vorbeifluggeometrie und Nutzung der normalen Antenne anstatt einer optimierten SAR-Antenne nur eine vergleichsweise grobe Auflösung und deckte nur Teile der Oberfläche ab. Die Datenrate ist bei Saturn begrenzt, aber Titan ist auch klein. Vergleicht man ihn mit der Venus, die auch nur mit Radar kartiert werden kann, so hat er eine 2,4 fach kleineren Durchmesser was einer 5,6-fach niedrigen Datenrate bei derselben Auflösung und Missionsdauer entspricht und bedenkt man das man bei einem Saturnorbiter eine größere Antenne einsetzen kann, so sollte eine ähnliche Auflösung wie bei der Venus erreichbar sein. Daneben kann man die Atmosphäre aus dem Orbit mit Spektrometern erkunden und vor allem ihre jahreszeitliche chemische Veränderung untersuchen. Die Beeinflussung des Orbits verrät zudem noch einiges über den inneren Aufbau von Titan.

Landesonden

Mehr Möglichkeiten hat man bei einem Lander, der wie schon geschrieben schon vor Erreichen einer Titanumlaufbahn abgetrennt werden kann. Die Atmosphäre des Titan ist so dicht, dass Huygens zweieinhalb Stunden bis zur Landung brauchte, selbst auf der Venus geht das schneller. Dafür ist die Landung sicher und ein Fallschirm reicht aus, man braucht keine Landetriebwerke. Nebenbei hat man so viel Zeit die Atmosphäre beim Abstieg zu untersuchen und Aufnahmen des Landeplatzes zu machen.

Prinzipiell gäbe es drei mögliche Missionstypen:

Diese sind auch kombinierbar, d.H. ein Rover kann einen Ballon oder ein Flugzeug freisetzen. Die Bodensonde ist vergleichbar denen die auf Mond und Mars absetzbar sind. Als zusätzliche Hindernisse kommen nur hinzu, das man vielleicht nicht in einem der Seen landen sollte dies es auf Titan gibt. Daneben besteht die Oberfläche aus Eis. Durch die Abwärme würde eine Sonde daher bald einsinken, ein Problem, das man auch von Forschungsstationen in der Antarktis kennt. Ein Rover, der in Bewegung bleibt, hat dieses Problem weniger. Die Instrumentierung wäre sehr ähnlich denen von Marsrovern, auch weil es um dieselben Untersuchungen geht. Man könnte bei Titan mehr in die Tiefe gehen, das heißt zum einen leichter bohren, da es sich ja um Eis handelt, aber auch ein Bodenradar würde tiefer eindringen. Auch das Probenvorbereiten gestaltet sich einfacher.

Eine Landesonde wird es in jedem Falle auch bei Ballonen und Flugzeugen geben denn irgendwie müssen auch diese erst mal landen. Dann wird es aber eine stationäre Sonde sein, während eine reine Landesonden wohl eher heute ein beweglicher Rover wäre.

Für Ballonsonde und Flugzeug ist die dichte Atmosphäre von Vorteil. Sei ist 4,6-mal dichter am Boden als die der Erde. Das kann man bei einer Ballonsonde direkt in einen 4,6-mal größeren Auftrieb umrechnen, aber auch bei einem Flugzeug oder Helikopter muss der Motor weniger leisten. Für ein aktiv betriebenes Fluggerät ist allerdings hinderlich, dass die einzig verfügbare Energieversorgung ein RTG ist. Er kann zwar einen Akku aufladen, der etwa 30-mal mehr Energie pro Masse speichern kann, aber ohne RTG wird es nicht gehen, auch wegen der Nutzung der Abwärme, denn bei -90 Grad fällt sonst der Akku aus. Wahrscheinlich wird ein aktiv betriebenes Flugzeug eine Ergänzung zu einer größeren Landesonde sein. Es wird von ihr aufgeladen und nutzt sie auch zur Datenübertragung, kann so aber auch nur die unmittelbare Nähe der Landesonde / Rover erkunden und muss zum Aufladen wieder zurückkehren. Sehr viele Instrumente wird sie allerdings nicht mitführen können. Ein ähnliches Konzuept könnt ein mitgeführter kleiner Ballon sein. Um 1 kg bei Titan anzuheben, das wäre ausreichend für eine Kamera und Elektronik, die Ballonhülle und ein Seil benötigt man nur einen Ballon von 0,22 m³ Volumen also einen etwa 40 cm großen Ballon. Ihn könnte ein Rover an dem Seil steigen lassen. Durch das Seil geht er nicht verloren und über dieses könnte man auch mit zwei Kabeln Strom liefern und Daten transferieren. Dieser Rundumblick, den man schon bei einer Höhe von wenigen Metern mehr hat, ist auch sehr nützlich für die Tourenplanung.

Eine Ballonsonde könnte dagegen sehr lange betrieben werden, wenn man den Verlust an Gas in Griff bekommt. Immerhin: Auf der Erde konnte man die Welt schon in 20 Tagen ohne Zwischenlandung umrunden. Wie auf der Erde gibt es prinzipiell zwei Möglichkeiten um Auftrieb zu erzeugen: man könnte die Titanatmosphäre aufheizen entsprechend einem Heißluftballon und man könnte ein leichteres Gas einsetzen. Angesichts der Leistung von Gasbrennen bei irdischen Heißluftballons denke ich wird man mit der Abwärme von RTG in der Größenordnung von einigen kW kaum einen Heißluftballon für eine größere Sonde betrieben können. Bei der Erzeugung von Auftrieb durch ein leichteres Gas gilt dasselbe, wie bei der Erde, auch die mittlere Molekülmasse von der Atmosphäre von 28 bei Titan und 29 bei der Erde ist vergleichbar. Aufgrund der niedrigen Temperaturen kommen nur Wasserstoff und Helium als Gase infrage. Rein theoretisch könnte man auch das Eis auf Titan erst schmelzen und dann durch Elektrolyse in ein Gasgemisch umwandeln, was dann eine mittlere Molmasse von 12 hätte. Nur würde ich mich nicht auf eine Technologie verlassen, die man niemals zuvor ausprobieren kann. Zudem weiß man nicht in wieweit die organischen Substanzen im Eis stören und welche es sind. Helium kann man nur in Form von Druckgasflaschen mitführen, die typisch das dreifache des Inhalts wiegen. Sie wären ein Gewichtsposten, für 100 kg Sondennettomasse inklusive Ballonhülle bräuchte man 4,2 kg Helium, die zusammen mit den Flaschen dann 17 kg wiegen. Bei Wasserstoff wird das nur wenig besser (15,4 kg) dafür dürfte die Verlustrate höher sein. Immerhin sorgt die hohe Dichte dafür, dass der Ballon 4,4-mal kleiner als auf der Erde ist. Die NASA hat das autonome Fliegen bei einem „kleinen“ Ballon (11 m Länge, 2,5 m Durchmesser) erprobt, der auf der Erde nur 16 kg anheben kann. Bei Titan wäre die Nutzlast 4,4-mal größer. Wasserstoff könnte man theoretisch auch aus mitgeführten Substanzen freisetzen, allerdings ergibt dies keinen Gewichtsvorteil.

Ein solcher Forschungsballon könnte in niedriger Höhe schweben und sich langsam fortbewegen, dabei die Oberfläche fotografieren und atmosphärische Untersagungen machen. Für die Analyse von Bodenproben müsste er landen oder zumindest eine Sonde herablassen. Ideal wäre ein aktiver Flug, der ist allerdings energieufwendig, das obige Modell hatte zwei Triebwerke von je 2,3 kW Leistung. Doch vielleicht reicht auch ein passiver Flug aus. Er würde auch Daten über die Strömungen bei Titan liefern. Dazu müsste man dann natürlich eine Höhe erreichen, die verhindert das man auf Hindernisse trifft. Die höchsten Berge haben bei Titan 3337 m Höhe. Das sind aber ausnahmen. Cassinis Radaraufnahmen ergaben sonst Höhenunterschiede im typischen Bereich einiger Hundert Meter, an sonst keiner Stelle mehr als 1 km. Bei einer Skalenhöhe von 11,1 km reicht eine um 8,5 % niedrigere Dichte der Gasfüllung als für den Erdboden nötig wäre, um den Ballon in 1 km Höhe schweben zu lassen. Auf der Erde wäre dies gleichbedeutend mit dem Druckunterschied von etwa 700 m Höhe.

Neben Aufnahmen und Atmosphärenanalysen wäre bei einem niedrigen fliegenden Ballon auch eine Bodenuntersuchung denkbar, wenn man landet. Alternativ könnte man eine Probe an einem Greifer in Bodennähe nehmen. Das geht nicht in die Tiefe, doch man nimmt an das die interessantesten Dinge sowieso als Aerosole herabregnen und sich so in der obersten Schicht befinden. Über einem See wäre die Probennahme sogar noch einfacher und dieser wäre für eine Landesonde nicht erreichbar. Ich denke aber das bessere Konzept ist ein Rover mit guter Instrumentierung, der an einem Seil einen kleinen Ballon mitführt, der dann nur Übersichtsaufnahmen und einige Wetterdaten liefert.

Es bietet sich an Orbiter und Lander zu kombinieren, weil man bei keinem der Konzepte eine große und präzise ausrichtbare Richtantenne mitführen kann. Sie ist zu schwer und bei einem beweglichen Rover, Ballon oder Flugzeug nur schwer ausrichtbar. Der Orbiter würde die Daten des Landers empfangen und zur Erde übertragen. Prinzipiell könnte dies auch ein Saturnorbiter leisten, der periodisch Titan passiert, doch zum einen wäre dann die Datenrate und Datenmenge kleiner und zum anderen würde dieser Orbiter nicht mehr leisten als Cassini. Ein solcher Orbiter wäre nur von Nutzen, wenn er gleichzeitig Enceladus häufig besucht, der als zweites interessantes Ziel im Saturnsystem gilt.


 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99