Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 539: 10.11.2018 - 25.11.2018

10.11.2018: Der Netzcomputer

In der aktuellen ct' wird an die Anfänge der Zeitschrift, die dieses Jahr 35 wird, erinnert. Es gab schon vor vier Wochen eine Retroausgabe, gewidmet alten Computern, anderer Hardware aber auch Skandalen in der Vergangenheit wie Softram oder der KGB-Hack. Diesmal sind es nur drei Artikel und einer befasst sich mit Irrtümern in der Zeitschrift.

Einer davon ist der Netzcomputer oder Net-Computer den die Zeitschrift, wenn auch nicht konkret (als Buzzwort) in Ausgabe 6/1999 ansprach. Der PC mit Gehäuse und Bildschirm würde von einem mobilen Gerät, heute würden wir wohl von einem Tablett sprechen, abgelöst und der Rechner im Keller stehen oder Software sogar aus dem Internet kommen.

Dabei war die Zeitschrift sogar spät dran, es gibt die dreiteilige Serie "Triumpf of the nerds", die auch ins deutsche übersetzt und auf Bayern 3 ausgestrahlt wurde unter dem Titel "Unternehmen Zufall". In der zeichnet der Journalist die Entwicklung des PC nach mit den Stationen Altair, Apple II, IBM PC und Windows. Wertvoll ist wie weil viele Zeitzeugen, auch hochrangige, wie Bill Gates und Steve Jobs interviewt wurden. Wer es noch nicht gesehen hat: nachholen.

Eine Prognose kam von Larry Ellison. Eigentümer von Oracle. Er beschrieb, das es damals fürchterlich umständlich sei, einen Computer in Betrieb zu nehmen. Man müsste erst mal Software installieren, das war damals schon beim Betriebssystem nicht ganz einfach, denn Treiber suchte Windows sich damals nicht selbst aus dem Internet. Er bezeichnete das als "Just kidding". Seien Lösung: Das alles gibt es im Netz. Die Vision: Man hat ein kleines Gerät, das man mit dem Netz verbindet und das holt sich dann das aktuelle Betriebssystem, die Anwendungen und sogar Daten. Später gab es das Gerät tatsächlich als Netzcomputer (Net-Computer) und gibt es bis heute, nur heißt es inzwischen Thin-Client.

Auf den ersten Blick klingt das sogar vernünftig. Zum einen wird so der Computer viel bedienfreundlicher. 1995 als er diese Aussage machte, gab es zwar gerade den Windows 95 Boom. Aber noch immer wurde der PC fast nur beruflich genutzt. Spielen konnte man zwar auch, aber dafür war er zu teuer und die Hardware auch nicht ausgelegt, erst wenige Jahre später kamen die ersten Grafikkarten die Funktionen hatten, um Spiele zu beschleunigen, wie die Voodoo von 3DFX. Internet surfen war noch kein Thema, wenngleich um diese Zeit herum der Internetboom in den USA langsam startete.

Man konnte auch viel Geld sparen. Damals waren Festplatten noch teuer, kosteten um die 1000 Mark, was ein Drittel des Rechnerpreises ausmachte. Dazu kam der Controller, der damals noch nicht im Chipsatz war. Zudem belegten sie den meisten Platz im Gehäuse - wuchtige Kühler brauchte man bei den 486-Prozessoren der Zeit noch nicht. So passte der Net-Computer dann auch wirklich in ein kleines Gehäuse oder wäre wie beim iMac in den Monitor integrierbar. Im Idealfall wäre so auch das Verkabelungsproblem gelöst, an dem zumindest ganz unerfahrene Anwender scheitern, da Monitoranschluss, Stromanschluss für den Monitor wegfallen und es nur noch drei Anschlüsse für Netzwerk, Tastatur und Maus gibt.

Trotzdem gab es Vorteile für den Anwender: wenn seine Daten im Netz (heute würden wir Cloud sagen) gespeichert sind, dann muss er keine Datensicherung machen, das kann ein zentraler Dienstleister sowieso viel besser. Er muss sich nicht um Softwareaktualisierung oder neue Betriebssysteme kümmern und diese installieren, das alles bekommt er beim nächsten Booten automatisch.

Der Grund für Ellisons Euphorie war wohl Java, das damals gerade neu erschien. Java hatte den Anspruch, das man damit alles machen könne. Von der Mikrocontrollerprogrammierung bis zu Großrechnern sollte es auf jedem Rechner laufen und dank einer virtuellen Maschine auch derselbe Code. Ein Feature das damals so gut zu dem Internet-Boom passte waren verteilte Anwendungen ermöglicht durch Remote Procedure Calls. Damit ist gemeint, dass ein Teil der Anwendung auf einem PC läuft und ein anderer (meist der größere Teil) auf einem anderen Rechner. Übers Netzwerk kann dann der PC-Teil Routinen auf dem Server aufrufen, die auch dort ausgeführt wird und erhält nur die Ergebnisse zurück. So kann ein Programm auf dem PC extrem klein sein und sich nur um die Dinge kümmern, die schnell gehen müssen wie Bildschirmaufbau. Alles, was eine Latenz haben kann, die Menschen als "schnell" empfinden, das liegt so im Bereich von 0,5 bis 1 s - eine Ewigkeit schon damals für Computer, kann dann ausgelagert werden.

Folgerichtig übernahm dann Oracle auch Sun Microsystems, die Java erfanden, allerdings erst 2009, da war der Javaboom schon vorbei, ebenso der des Netzcomputers.

Warum scheiterte der Netzcomputer?

Nun sicher ein Grund waren technische Probleme. Als der ct-Artikel 1999 erschien, gab es gerade erst in Deutschland die ersten DSL-Angebote der Telekom, damals noch 768 kbit schnell. Was heute langsam ist, war damals mehr als fünfmal so schnell wie ISDN mit Kanalbündelung oder zwanzigmal so schnell wie analoge Modem, die die meisten hatten. Einer meiner Informatikprofessoren meinte, er sähe keinen Grund, warum jemand "so schnelles Internet" bräuchte und das die Studenten die jetzt schon von DSL schwärmten wohl zu viel Geld hätten - der DSL-Anschluss kostete 100 Mark im Monat. Er hat es wohl wie ich gemacht, in der Uni wurde, dass was viel Platz braucht kopiert. Die FH Esslingen hatte schon einen Breitbandanschluss. Zuhause wurden die Programme wieder auf den PC aufgespielt. Die Rechner in den für alle Studenten freien Räumen ("Pools") hatte dazu eigens ZIP-Laufwerke, damals ein gängiges Wechselmedium. Viele meiner Kommilitonen legten sich eigens deswegen ein Zip-Laufwerk zu. Ich habe dagegen CDs gebrannt. Auch mein erster USB-Stick mit ganzen 128 MB Kapazität wurde nur deswegen gekauft. In den USA wird man damals wohl weiter gewesen sein, auch was schnelle Anschlüsse, nicht nur über das Telefonnetz, sondern Fernsehkanalnetz angeht. Das war schon damals besser ausgebaut und erreichte viel mehr Amerikaner. Fernsehen über Satellit ist bis heute in den USA eher unüblich. Aber sicherlich waren die Geschwindigkeiten damals im Vergleich zu heute doch sehr bescheiden.

Daneben entpuppte sich Java zwar als eierlegende Wollmilchsau, wurde mit jeder neuen Version aber langsamer und brauchte mehr Speicher, was das Konzept eines Thin Clients ad absurdum führte.

Der Hauptgrund, der gegen den Netzcomputer spricht, ist aber die Psychologie. Menschen wollen gerne etwas besitzen. Sie mieten und leihen nur ungern etwas, außer es gibt triftige Gründe und sie können es sich nicht leisten. Nicht umsonst haben Firmen bis heute die meisten Fahrzeuge geleast, während Privatpersonen sich einen Wagen kaufen. Für eine Firma sind kalkulierbare jährliche Kosten besser für die Bilanz und Buchhaltung, als einmalige Ausgaben. Daneben schwingt auch die Befürchtung mit das man nun abhängig ist. Einen PC hat man gekauft und wenn der Hersteller pleitegeht, dann funktioniert er immer noch. Ein Netzcomputer ist dann nur noch Schrott. Der Hersteller muss nicht mal pleitegehen. Es reicht auch, wenn ein Update misslingt. Oder es müssen nicht alle Aktualisierungen den Wunsch des Anwenders treffen. Man denke nur mal an Windows Vista, dass niemand haben wollte oder die Ribbons von Microsoft Office. Es gibt ja auch Leute, die wollen gar keine Aktualisierung. Die sind mit ihrer Textverarbeitung oder sonstigem Programm zufrieden und wollen keine neue Version, egal ob diese neue Funktionen hat, weil sie nur einen Teil nutzen und nichts vermissen. Denn jede neue Version bedeutet auch neuen Lernaufwand.

Der Netzcomputer ist tot - es lebe die Cloud, iStore und GooglePlayStore.

Eigentlich ist der Netzcomputer ja nicht tot. Das Konzept hat sich aber gehalten und es ist heute eigentlich ganz erfolgreich. Was sich geändert hat, ist, dass es kein Thin-Client ist, sondern ein vollwertiger Computer, der auch offline nutzbar ist. Das Modell ist aber geblieben. Microsoft Office kann man nicht mehr kaufen, nur noch mieten. Man bekommt automatisch immer die neueste Version. Windows 10 kommt mit halbjährlichen Updates, die man immerhin mit etwas Wissen noch abschalten kann. Bei Android geht das gar nicht, was mein Billigsmartphone unbenutzbar gemacht hat, weil es schon wenig Speicher und einen langsamen Prozessor hatte. Smartphones gibt es praktisch nur noch als "Netzcomputer", bei Tabletts ist es bei einem Großteil der Geräte zu. Von den vielen anderen Gadgets wie Smartwatches ganz zu schweigen. Manche Hersteller wie Apple bauen nicht mal noch einen Anschluss für externe Massenspeicher wie Micro-SD-Karten oder USB-.Sticks ein, da landen dann auch alle Daten im ITunes Account.

Daten werden heute in der Cloud gespeichert entweder direkt vom Anwender über Dropbox, OneDrive oder GoogleDrive oder über Nutzung von Anwendungen und Diensten bei Servern von Diensten wie Facebook, Whatsapp oder Instagram. Software kann ich bei den meisten mobilen Geräten nur noch über Stores der Hersteller des Gerätes oder Betriebssystem installieren, nicht beliebige Software. Kurzum, wir alle haben heute einen Netzcomputer, nur heißt er nicht mehr so.

13.10.2018: Weltraummüllvermeidung

Michael Khan hat einen Blog über Astroscale, einem Startup zur Müllbeseitigung geschrieben. Das Problem hat ja durch immer mehr Satelliten zugenommen, die nun geplanten Konstellationen von Tausenden von Satelliten in relativ großen Höhen werden es aber gravierend verschärfen. Ich habe das Thema ja schon mal behandelt, aber warum nicht öfters?

Problemanalyse

Ich gehe davon aus, das wie im wirklichen Leben es besser ist Müll zu vermeiden als ihn zu beseitigen. Also sollte man konsequent Satelliten aber auch Oberstufen entsorgen. Das geschieht am besten, wenn man sie verglühen lässt.

Idealerweise erledigt sich das Müllproblem von selbst. Die Atmosphäre der Erde wird mit zunehmender Höhe immer dünner, bremst aber noch in Hunderten von Kilometern Höhe ab. Als Faustregel für nicht besonders kompakt oder ausladend aufgebaute Satelliten gilt:

Die einzige US-Raumstation Skylab brauchte rund 5 Jahre, um von 435 km Höhe herabzusinken, der deutsche Satellit ROSAT 21 Jahre ausgehend von 560 km Höhe. Bisher trat noch keine Nutzlast wieder in die Atmosphäre ein, deren Umlaufbahn in 800 km Höhe oder darüber lag, außer sie wurde gezielt deorbitiert oder hatte untypische Bauform, dazu noch mehr.

Ich habe mit einem einfachen Modell der Atmosphäre mal die Lebensdauer eines 1 kg schweren 1U Cubesats (10 x 10 x 10 cm groß) modelliert. (SFU=66,9) das ist der derzeitige relativ niedrige Wert) Beginnend mit 500 km Höhe:


Tage

Jahre

Höhe [km]

1509,2

4,13

490,0

2722,8

7,46

480,0

3696,3

10,13

470,0

4475,0

12,26

460,0

5096,3

13,96

450,0

5590,7

15,32

440,0

5983,0

16,39

430,0

6293,5

17,24

420,0

6538,7

17,91

410,0

6731,7

18,44

400,0

6883,2

18,86

390,0

7001,9

19,18

380,0

7094,6

19,44

370,0

7166,8

19,64

360,0

7222,9

19,79

350,0

7266,4

19,91

340,0

7300,0

20,00

330,0

7325,9

20,07

320,0

7345,8

20,13

310,0

7361,1

20,17

300,0

7372,8

20,20

289,9

7381,7

20,22

279,9

7388,5

20,24

269,9

7393,6

20,26

259,9

7397,5

20,27

249,9

7400,5

20,28

239,6

7402,7

20,28

229,6

7404,3

20,29

220,0

7405,6

20,29

209,6

7406,5

20,29

199,9

Für die ersten 10 km von 500 auf 490 km Höhe braucht der Cubesat 4,13 Jahre, für die ersten 50 km dann schon nur 14 Jahre, nicht 5 x 4,13 = 20,6 Jahre. 400 km Höhe, hat er nach 18,44 Jahren, also 4 weiteren Jahren erreicht. Während der Cubesat über 18 Jahre brauchte, um die ersten 100 km zurückzulegen, schafft er die nächsten 200 km in zwei Jahren und verglüht dann. Die letzten 100 km legt er in 50 Tagen zurück. Man sieht: die Abbremsung nimmt rapide zu, nicht linear.

Daraus kann man folgern, dass Satelliten wie Onewebs oder Space-Konstellation in Höhen über 1000 km noch sehr lange die Erde umkreisen würden. Umgekehrt sind Satelliten, die durch die ISS ausgesetzt werden, wie dies mit zahlreichen Cubesats inzwischen erfolgt, kein Problem. Sie verglühen in rund zwei bis drei Jahren.

Die Dauer ist nicht generalisierbar. Es hängt von der Form und Größe des Satelliten ab. Normalerweise wäre ein rund 4.000 km hoher Orbit wie in Pageos A am 24.6.1966 erreichte (3978 x 4496 x 87,1 Grad) langzeitstabil. Doch Pageos A war ein Ballonsatellit mit einer großen Hülle aber kaum Gewicht. Pageos wog keine 57 kg und hatte aufgeblasen eine Größe von 30,48 m. Er verglühte so am 2.9.2016. Wäre unser Satellit kein leichter Cubesat, sondern ein Würfel aus einem dichten Metall wie Wolfram oder Uran mit Dichte 20, er würde viel länger im Orbit bleiben, rund 381 Jahre lang anstatt 20. Auch solche Satelliten gibt es. Sie sind besonders kompakt, damit die Atmosphäre sie nicht beeinflusst, und tragen Laserreflektoren, damit Bodenstationen sie anpeilen können. Sie reagieren aber auf Ungleichheiten des Erdgravitationsfeldes und so vermaß man dieses früher. Ein typischer Vertreter dieser Satelliten ist Lageos. Er wiegt bei nur 60 cm Durchmesser 410 kg. Seine Umlaufbahn in 5900 km Höhe ist so noch über 8,4 Millionen Jahre stabil.

Nett ist weiterhin, dass diese Betrachtung nur für kreisförmige Bahnen gilt. Ist die Bahn elliptisch, so reicht es, wenn das Perigäum niedrig ist. Die Folge der Abbremsung nur im Perigäum (erdnächsten Punkt der Bahn) ist das dabei, dass Apogäum (erdfernster Punkt der Bahn) absinkt und damit auch die Umlaufdauer. Der Satellit wird dadurch immer schneller abgebremst und hat er mal eine kreisförmige Umlaufbahn erreicht so geht es dann genauso schnell, wie wenn er schon in dieser Umlaufbahn gestartet wäre. Der erste Explorer hatte eine Umlaufbahn von 214 x 1.659 km, also wenn man die durchschnittliche Höhe (Halbachse der Bahn) betrachtet, entsprechend einer Kreisbahn von 936 km Höhe. In einer kreisförmigen Umlaufbahn in 900 km Höhe würde Explorer 1 immer noch die Erde umkreisen. So wurde er aber in dem niedrigen erdnahen Punkt rasch abgebremst und verglühte am 14.4.1958, nur etwa zwei Monate nach dem Start. Vanguard 1, nur wenig später in eine 657 x 3.932 km hohe Bahn geschossen umrundet wegen des hohen Perigäums dagegen bis heute die Erde. Die Umlaufbahn hat sich seitdem kaum geändert: Derzeit hat er eine 656,2 x 3814,2 km Bahn.

Wenn eine Umlaufbahn sehr weit ins All hinausreicht, dann muss der Störeinfluss des Mondes berücksichtigt werden. Er kann dazu führen, dass das Perigäum absinkt und die Nutzlast so verglüht, er kann aber auch das Apogäum anheben, wodurch er noch mehr vom Mond angezogen wird und irgendwann entweder auf eine Sonnenumlaufbahn getrieben wird oder auf dem Mond aufschlägt. Die Aufklärungssatelliten Vela 1A und 1B hatten elliptische Bahnen, die ein Perigäum von 101.000 km und ein Apogäum von 119.000 km hatten. Also noch weitaus höher als die Bahn von Lageos oder Vanguard 1. Durch den Störeinfluss des Mondes traten beide am 12.10.2018 nach 55 Jahren wieder in die Erdatmosphäre ein.

Höhere Satelliten

Neben den erdnahen Satelliten, die nun durch die Konstellationen Zuwachs bekommen, gibt es noch zwei populierte Zonen. Das eine sind Navigationssatelliten:

Aufgrund der unterschiedlichen Bahnhöhe sind hier Kollisionen unwahrscheinlich. Sie können nur zwischen den maximal acht Satelliten einer Bahnebene vorkommen. Die sind aber im Normallfall Tausende von Kilometern voneinander entfernt.

Noch mehr Satelliten gibt es im geostationären Orbit. Da allerdings wie in den Navigationsorbits alle Satelliten die Erde in der gleichen Bahn, nur an unterschiedlichen Positionen. Damit ist aber auch ihre Relativgeschwindigkeit zueinander gering und eine Kollision unwahrscheinlich. Trotzdem hat sich schon vor Jahrzehnten eingebürgert mit dem letzten Rest des Treibstoffs den Satelliten in einen Friedhofsorbit zu verschieben, einen Orbit jenseits des GEO.

Folgerungen

Es gibt also für Satelliten, aber auch die letzten Raketenstufen, die einen Orbit erreichen folgende Möglichkeiten:

Dabei muss, wenn man abbremst, nicht die ganze Bahn absenken. Es reicht, das Perigäum abzusenken. Das spart Treibstoff. Die zweite Möglichkeit dürfte für ganz hohe Bahnen wie beim GEO-Orbit nicht praktikabel sein. Für Oberstufen wird man ebenfalls nur die zweite Möglichkeit nutzen.

Für Oberstufen ist eine praktikable Möglichkeit, einen Treibstoffrest zu belassen und mit ihm die Bahn abzusenken. Da sie nur einen Teil der Masse des Satelliten hat (im Idealfall) benötigt man wenig Treibstoff. Der Orbit von Oneweb liegt in 1.200 km Höhe. Senkt man das Perigäum auf 300 km ab, so benötigt man eine Geschwindigkeitsänderung von 233 m/s. Bei der rund 950 kg schweren Fregat Oberstufe sind das 72 kg Treibstoff. Bei 32 Satelliten pro Start jeder 145 kg schwer sind das nur 1,6 Prozent weniger Nutzlastmasse. Da man hier keine Reserven vorhalten muss, anders als bei Satelliten kann in der Praxis das Perigäum noch niedriger liegen und die Oberstufe rasch verglühen. Bei 63 m/s, rund 19 kg Treibstoff mehr würde die Fregat z. b. 80 km Perigäumhöhe erreichen und damit sofort verglühen.

Bei den Transporten in den GTO ist es ganz einfach: der Orbit hat schon ein niedriges Perigäum. Hier wird durch das Entlassen des Treibstoffs gegen die Bewegungsrichtung dieses nochmals abgesenkt und die Oberstufen verglühen rasch. Stufen die Satelliten direkt in den GEO bringen oder Navigationsorbits müssen analog in Friedhofsorbits gebracht werden. Ebenso sind Friedhofsorbits die einzige Alternative bei den Satelliten in dieser Höhe.

Für Satelliten kann man dasselbe machen - hier braucht man bei einem Feststoffantrieb - er ist zuverlässig und liefert einen hohen Schub, sodass nur ein Bahnpunkt abgesenkt wird, nur rund 10 Prozent Zusatzmasse um einen Satelliten aus 1.200 km Höhe in eine 300 x 1200 km Bahn zu bringen. Für niedrigere Bahnen ist es sogar noch weniger.

Die Alternative ist es, die Reibung zu erhöhen. Auch hier gibt es eine brauchbare Rechenvorlage. Echo 2 gelangte am 25.1.1964 in eine 1.088 x 1.388 km hohe Bahn, also in etwa so hoch wie eine 1.200 km Bahn. Er verglühte nach 6 ½ Jahren am 7.6.1969. Echo 2 wog 126 kg. Wenn man einen der 145 kg schweren Oneweb-Satelliten in etwa so schnell deorbitieren wöllte, müsste man also ebenfalls mindestens 126 kg Masse addieren. Das ist deutlich mehr als die Lösung mit dem Raketenantrieb bei dem 15 kg für den Antrieb reichen.

Mögliche Umsetzung

Jeder Satellit, der die Erde beobachtet oder zu einer dieser Konstellationen gehört hat im Orbit eine definierte Ausrichtung, diktiert durch die Ausrichtung von Sensoren auf die Erde oder der räumlichen Ausrichtung der Antennen. Dann kennt man aber auch die Seite, die gegen die Bahnbewegung zeigt. An dieser muss man nur ein kleines Feststofftriebwerk mit einem Mikrocontroller, einer Batterie und einer Leitung zum Bordcomputer und Stromversorgung anbringen. Reist die Stromversorgung ab, so versorgt die Batterie den Mikrocontroller. Hat sich diese bis zu einem bestimmten Maße entladen, so zündet er den Antrieb und senkt so die Bahn ab. So kann er einem katastrophalen Ereignis wie Verlust der Orientierung und damit Stromversorgung begegnen. Stürzt die Elektronik aus irgendwelchen Gründen ab, so gibt sie kein Signal mehr ab. Die Programmierung müsste dann so sein, dass nach einer bestimmten Zeit (nicht sofort, um Rettungsversuche von der Erde aus zu erlauben) auch dann der Antrieb ausgelöst werden. In jedem Falle müsste es ein vom Bordcomputer unabhängiges System sein.

Internationale Absprachen

Das Problem ist das international durchzusetzen. Noch immer ist bei China und Russland es nicht mal üblich das sie ihre Raketenstufen passivieren, also den Resttreibstoff ablassen. Das senkt nicht den Orbit ab, außer es erfolgt kontrolliert gegen die Bewegungsrichtung, aber es sorgt wenigstens dafür, dass die Stufen dann nicht irgendwann explodieren, wenn der Treibstoff verdampft und die Tanks sprengt.

Noch schwerer ist es kommerziellen Unternehmen, die derzeit Kleinsatelliten zur Erdbeobachtung bauen, und starten oder größeren wie Oneweb Vorschriften zu machen. Doch auch diese Unternehmen sind nicht unabhängig. Sie hängen von anderen Unternehmen ab. Ihre Satelliten müssen in den Orbit gebracht werden und zumindest alle westlichen Anbieter brauchen auch öffentliche Aufträge. Arianespace, welche den Großteil der Satelliten startet, könnte die ESA vorschreiben, dass sie diese nur startet, wenn es ein Deorbitkonzept gibt - für Satelliten und Fregat. SpaceX scheint hier fein raus zu sein, aber sie benötigen auch Aufträge von NASA und DoD. Die Firma ist zu über 70 % staatsfinanziert, weil die meisten Einnahmen aus dem CCdev / CRS-Programm kommen. Daneben brauchen sie noch etwas anderes: Funkfrequenzen. Auch hier kann man die Frequenzvergabe an ein Deorbitkonzept koppeln - nicht mal zu unrecht, denn ein toter aber noch sendender Satellit stört alle anderen Services.

Aufgrund dessen, das es immer billiger wird in den Orbit zu starten, und das noch ohne BFR, die alles ja noch viel preiswerter machen soll, wäre auch das Zusatzgewicht verschmerzbar, zumal die Satelliten ja auch viel leichter sind als ihre Vorgänger Iridium und Globalstar.

Der Fluch von Jagged Alliance

Auf den Titel bin ich gekommen durch einen Review von Jagged Alliance "Rage". Jagged Alliance habe ich zuerst auf einer CD der Bestseller Games gefunden. Das war eine Zeitschrift von PEARL, die ein nicht mehr ganz aktuelles Spiel für einen Bruchteil des Preises rausbrachte. Da waren einige gut drauf, so Pirates und Might & Magic IV und V. Das beste dieser Spiele war aber Jagged Alliance 1, ein DOS-Spiel. Ich habe es kürzlich erneut gespielt und es hat alle Bestandteile der folgenden Version 2, die noch besser ist: Söldner mit individuellen Stärken und Schwächen. Subquests die man lösen muss und es ist rundenbasiert und man muss taktisch vorgehen.

Die nachfolgende Windows Version Jagged Alliance 2 kam dann 1999 raus. Ich habe mir damals eine Topware-Speiele CD nur wegen des Titels gekauft. Bis heute spiele ich immer wieder gerne damit. Es gibt unzählige Mods. Manche klein, manche umfangreich. Viele der größeren Mods haben aber Bugs. Einer wurde sogar als "Jagged Alliance Operation Wildfire" verkauft und ich habe die 40 Euro gerne für die CD gezahlt. Es gab offiziell noch den Ableger "Unfinished Business" mit etwas vielseitiger Grafik. Da das allerdings relativ geradlinig und zeitlich überschaubar war, es die strategische Komponente fehlte (es war eigentlich nur ein Subquest als eigene Version), war ich davon nicht begeistert.

Obwohl die Version 2 nach verschiedenen Reviews und Webseiten als eines der besten Strategiespiele gilt, die jemals auf den Markt kamen, war es leider für den Produzenten SirTech kein Erfolg. Die Firma ging pleite. Seitdem gab es unter dem Titel mehrere Neuauflagen, die aber immer ein Flop wurden. Das wundert mich nicht, denn die Firmen scheinen das Spiel nie gespielt zu haben. Denn in ihren Jagged Alliance Versionen fehlte vieles, was das Original ausmachte:

Die Waffenmanie sehe ich fast als Nachteil an. Jagged Alliance hat enorm viele Waffen und Ausrüstungsgegenstände. Bei allen Mods wird es noch mehr und plötzlich ist man vor allem damit beschäftigt, Söldner umzurüsten. Etwas weniger Vielfalt hätte es auch getan. Aber ich scheine damit alleine zu stehen. Immerhin vermittelt es Wissen. Wenn in einem Film mal eine Waffe kommt, kann ich sie identifizieren ~.)

Den "inofiziellen" Nachfolger "The Jagged Edge - Hired Guns" habe ich schon nicht probiert. Er bekam vernichtende Kritiken - stark vereinfachtes Spielsystem, sehr schwer und vor allem zahlreiche Bugs bis hin zu Abstürzen. Gut, das der Publisher den Namen vorher abgeschwächt hat, denn es sollte eigentlich "Jagged Alliance 3D" heißen.

Zuerst kam Jagged Alliance "Back in Action". Neben Bugs haben die Programmierer auf das Wesentliche bei Jagged Alliance verzichtet - den rundenbasierenden Modus. Leute, wenn ich etwas in Echtzeit spielen will, dann gibt es wirklich genug Alternativen. Vom Ego Shooter bis zu Ages of Empires. Der Reiz ist es ja gerade sich jeden Zug zu überlegen, strategisch vorzugehen. Ein rundenbasiertes Spiel ist so was wie Schach. Als ein Kollege, der sonst immer Ego Shooter spielte, mal auf meinem Rechner Jagged Alliance spielte, waren im ersten Sektor schon vier von sechs Söldnern tot. Und er war dann ganz erstaunt: Wer da tot ist auch wirklich tot, kann nicht wiederbelebt werden und wird tot in der Söldnerliste angezeigt. Immerhin ist dieser Nachfolger der kommerzielle erfolgreichste. Es gibt zahlreiche Erweiterungen (DLC) dafür und eine Standalone Erweiterung: Crossfire.

Es folgte Jagged Alliance Online. Das war eine Browserspielumsetzung. Zuerst noch als offenes Spiel, ohne Zahlzwang, wobei man ganz gut ohne Geld auskam. Das Wesentliche an dem Spiel war es für "Gold"-Gegenstände, die nur etwas besser als normale sind, zu kaufen und so von den Spielern Geld abzuknüpfen. Es fehlte aber sonst fast alles von Jagged Alliance - der Langzeitspielpass, denn jedes Szenario beginnt immer gleich. Gegner sind immer an den gleichen Orten, es gibt Kampagnen, die man abschließen kann, aber keine Gegenangriffe, keine Ressourcen, die man verteidigen muss und die Söldner sind nach dem Spielende wieder am Leben, auch wenn sie alle verloren gingen. Später zog das Spiel zu Steam über und war dann nur noch bis Level 15 (von 50) kostenlos. Dafür Geld zu zahlen halte ich für unsinnig.

2013 versuchte sich eine kleine dänische Softwareschmiede an der Umsetzung. Diesmal als Kickstarter-Projekt. Ich war schon skeptisch. Ein Spiel mit dem Titel "Jagged Alliance" sollte sich eigentlich von selbst verkaufen, wenn es gut ist. Warum also über Kickstarter Geld sammeln. Die benötigten 360.000 Euro kamen aber zusammen und einige Monate später gab es das Spiel - und die Schmiede ging in Konkurs, kurz nachdem es herauskam. Das war offensichtlich der letzte Strohhalm, um die Mannschaft weiter zu beschäftigen und Zeit zu gewinnen, um weitere Aufträge zu akquirieren. Jagged Alliance Flashback ist zwar bugfrei, aber so richtig gefallen hat es mir nicht. Lieblos war die Umsetzung. Vom komplexen System ist wenig geblieben. Dialoge beschränken sich auf eine Standardantwort. Quests sind leicht zu erledigen. Waffen recht einfach bei Händlern zu bekommen. Problematischer ist die Munitionsversorgung. Vor allem ist es stellenweise anstrengend. So gibt es einige strategische Sektoren die die Gegner dauernd einnehmen wollen. Man kann sie zwar dauernd zurückschlagen aber irgendwann geht einem die Munition aus. Es gibt nun eine 3D-Engine, aber für die Zeit schon mit relativ grober Darstellung. Gesichter von Menschen sehen überhaupt nicht natürlich aus. Da ist mir die schlechtere Auflösung und einfachere Darstellung Jagged Alliance 2 lieber.

Und nun versucht sich ein weiterer Publisher an dem Namen mit Jagged Alliance Rage. Erste Previews zeigen, dass das Spiel extrem schwer ist. Es soll nur vier Söldner geben und die müssen gegen Massen von Gegnern mit guter Ausrüstung kämpfen - Bei Jagged Alliance konnte man von der AIM aus etwa 50 Söldner bis zu 18 rekrutieren und in Teams von maximal sechs zu unterschiedlichen Aufgaben schicken, auch mal einen Sektor von zwei Seiten angreifen. Die strategische Komponente - heißt es denn nicht Strategiespiele? Scheinen alle neueren Umsetzungen völlig zu vermissen. Ich habe das Gefühl man hat den Reiz des Spiels nicht kapiert und das bei allen Nachfolgern. Es wurde einfach einiges der Elemente übernommen wie Waffensystem, Söldnernamen und Persönlichkeiten und das auf ein normales Strategiespiel draufgesetzt, das eben im rundenbasierten Modus arbeitete - bei Back in Action nicht mal das.

Leute, lasst das. Wenn ihr es nicht hinbekommt, dann nehmt wenigstens einen anderen Namen. Es gibt auch andere Möglichkeiten. In einem Review von Jagged Alliance Rage wurde erinnert, das Jagged Alliance neben XCOM das beste rundenbasierte Strategiespiel ist. XCom? Kannte ich nicht. Mal in Wikipedia informiert und siehe da: auch ein Spieleklassiker von 1994 aber er wurde 2012 neu umgesetzt in XCOM Enemy Unknown. Bei G2A gab es einen günstigen Steam Key und wenige Stunden später habe ich das Spiel angespielt. Es ist wirklich gut und hat Suchtcharakter. Nach Wikipedia ist es aber nur eine Umsetzung des Originals von 1994. Man hat allerdings auch vereinfacht. Da ich das Original nicht kenne, kann ich es schwer beurteilen, aber zumindest die Söldner scheinen sich nur durch ihre Klassen nicht durch Fähigkeiten oder Persönlichkeit zu unterschieden. Trotzdem habe ich in alter Jagged Alliance Manier die ganze Kaserne voll rekrutiert, auch wenn ich nach einigen Stunden begriffen habe, das es eigentlich reicht genügend Leute für einen Trupp zu haben, wenn einige im Krankenhaus liegen. Aber das wäre es doch: Nehmt Jagged Alliance 2, der Code ist ja frei verfügbar, sonst könnte eine Community das Spiel ja nicht zu Versionsnummer 1.13 (die nächste nach der letzten offiziellen) weiterentwickeln. Leider ist die letzte offizielle Version auch schon 5 Jahre alt.

Nein ich denke es gibt keinen Fluch, der Neuauflagen von Jagged Alliance zum Scheitern verurteilt. Es ist vielmehr die stupide und lieblose Umsetzung dieser Spiele. Immer wurde irgendein rundenbasiertes Spiel mit Leuten die mit Schusswaffen auf andere Gegner schießt mit dem Namen versehen. Damit es nicht zu viele Beschwerden gibt, übernahm man einige Namen wie Raven, Ivan oder Buzz die Spieler schon aus dem Original kannten und das war es dann auch schon. Dass damit natürlich nicht nur ein Bonus durch den guten Namen verbunden, sondern werden auch Erwartungen verbunden. Wer sich mit dem Besten vergleicht, und bietet nur Mittelmaß, der kackt natürlich in den Reviews besonders stark ab. Wenn ihr also nicht etwas fertigbringt, dass das Niveau des Originals an Spielspaß heranreicht - ich rede nicht von der Grafik, die ist nach fast 20 Jahren völlig veraltet - dann nehmt einen anderen Namen.

23.11.2018: ESAs Beitrag zur ISS ab 2020

Ich bekam gestern ein vorläufiges MoU (Memorandum of Understanding) zwischen der NASA und ESA von einem DLR-Mitarbeiter zugeschickt mit der Frage, ob mich das interessieren würde und ich vielleicht mein Buch zum ATV neu auflegen wöllte. Das noch nicht öffentliche Dokument skizziert eine Übereinkunft zwischen der NASA und ESA, wie man die Finanzierung der ISS durch die ESA seit 2020 umsetzen könnte.

Bei der ISS funktioniert alles auf der Basis von Gegenleistung und Kompensationen. Das heißt die ESA bezahlt nicht für die Betriebskosten, sondern bringt Sachleistungen ein. Das waren für die zehn Jahre von 2006 bis 2016 die ATV Flüge. Von 2017 bis 2020 baut man die Servicemodule der Orion. Nun steht eben aus, wie es danach weitergeht. Beschlossen ist der Betrieb bis 2028. Dafür gab es lange Zeit keine Lösung. Die ESA hätte gerne weitere Servicemodule für die Orion gestellt, doch angesichts des unterfinanzierten Explorationprogramms, bei dem schon das erste Servicemodul erst 2024 starten soll, war die NASA da nicht so begeistert von dem Vorschlag. Der Ausfall der Sojus hat nun die Entwicklung beschleunigt.

So richtig zufrieden war man bei der NASA nicht, das man auf die Russen für die Transporte angewiesen war. Die Zusammenarbeit mit Russland war nie unproblematisch. Als die Verträge 1993 abgeschlossen wurden, plante Russland neben Sarja und Swesda zwei weitere Labormodule und ein kombiniertes Modul mit Solarzellen. Damit war auf dem Papier der russische Teil in etwa genauso leistungsfähig wie der westliche Teil. Entsprechend wurde die Station in einen russischen und westlichen Teil aufgeteilt mit Gleichberechtigung sowohl was die Versorgung wie auch Kontrollzentren und Mannschaft betrifft. Nur blieb vom russischen Teil nur die ersten beiden Module, die von MIR-2 stammten die als Nachfolger von Mir geplant wurde aber nie fertiggestellt wurde.

Russland hat schon die NASA verärgert als sie, bis die Station 2009 voll ausgebaut war, Touristen mitführte. Das hat Russland auch für die Zukunft angekündigt, wenn die Sitze für die NASA-Astronauten wegfallen. Nur waren alle anderen Nationen auf Russland angewiesen. Wegen des Mannschaftstransports, aber seit dem letzten ATV auch wegen der Progress die seitdem als einziger Transporter die Station anheben können.

In den letzten Jahren gab es immer mehr Probleme. Zweimal ging eine Progress bei Fehlstarts verloren, die neuen Sojusraumschiffe haben Probleme wie zu spät ausgelöste Bremsraketen, Alterung der Oberfläche. In diesem Jahr ist es jedoch schlimmer geworden. Erst das Leck in der Sojus die Gerst zur Station brachte und das bei der Montage entstand und nur geflickt wurde, nun der Fehlstart durch einen falsch eingebauten Sensor. Seit dem Zusammenbruch der Sowjetunion kämpft Russland mit Fertigungsproblemen sowohl bei Raketen wie auch Raumschiffen (Phobos-Grunt). Davon war bisher das bemannte Programm verschont. Das scheint nun aber auch betroffen zu sein.

Die NASA hat der ESA einen Vorschlag gemacht, wie diese die Jahre 2021 bis 2024 kompensieren kann und auch einen Vorschlag für eine zweite Verlängerung bis 2028, die bis vor einigen Monaten ja auch von US-Seite aus feststand. Inzwischen hat Trump das Datum wieder infrage gestellt. Die ESA soll für die Periode 2021 bis 2024 zwei ATV bauen. Anders als die bisherigen sollen diese aber keinerlei Fracht unter Druck transportieren, dafür haben die USA ja selbst drei Systeme. Stattdessen soll der Vorrat an Reboost-Treibstoff erhöht werden und ebenso die Mitnahme von Refülltreibstoff und Gasen. Beides wäre nach einem vorläufigen Gutachten möglich. Man würde in das Servicemodul einen weiteren Ring mit Treibstoff/Gastanks einziehen und ebenso im Druckbehälter einen zweiten Ring mit Luft, Wasser und Treibstofftanks. Dafür wird der Druckbehälter gekürzt und endet nach dieser Sektion gleich im Koppeladapter, während das Servicemodul verlängert wird. Gefordert wird auch eine Betriebszeit der ATV von zwei Jahren an der ISS. Für die Periode von 2025 bis 2028 werden dagegen zwei Servicemodule als Kompensation gefordert. Eines ist für eine Explorationsmission geplant, das zweite soll an die ISS ankoppeln und sie mit dem Antrieb deorbitieren. Demnach wäre der erste ATV-Start für 2022 geplant. Er würde bis 2024 an der ISS bleiben. Ein weiteres Jahr lang würde die Station mit dem Refülltreibstoff auskommen. 2025 folgt das zweite ATV, das bis 2027 an der Station bleibt. 2028/29 dann das Servicemodul der Orion, das ja auch auf dem des ATV basiert und das die Station dann deorbitiert.

Der Vorschlag wird nun von der ESA geprüft, man stehe ihm von der DLR als größtem Nettozahler für die ISS positiv gegenüber. Für Europa wäre es eine gute Möglichkeit der Kompensation und die NASA wäre damit unabhängig von Russlands Transportdiensten, wenngleich mann immer noch die Module braucht, da das ATV nur in der Längsachse der Station ankoppeln kann.

Doch auch letzteres, also die russischen Module, scheinen zur Diskussion zu stehen, denn die Beziehung der NASA zu Roskosmos sind bestenfalls ambivalent. Das fing schon vor dem ersten Modul an, das ja gerade seinen zwanzigsten Geburtstag feierte. Als der Vertrag zwischen Roskosmos und NASA unterzeichnet wurde, war eine Station geplant, die aus einem westlichen und russischen Teil bestand - mit gleichberechtigten Partnern. (Siehe oben) Der russische Teil wäre genauso groß wie der westliche Teil gewesen, hätte sogar seine eigene Stromversorgung gehabt. Schon vor dem Start von Sarja reduzierte Russland das auf ein Modul Nauka. Ein weiteres Modul wurde durch Rasswet ersetzt, das nichts anderes als eine Verlängerung des Ankopplungspunktes ist, damit bei weiteren umgebenden Modulen noch eine problemlose Ankopplung an Swesda möglich ist, ohne das diese den Zugang behindern. Rasswet musste schon mit einem Space Shuttle ins All gebracht werden, da Russland nicht mal das Geld für die Trägerrakete hatte. Bei Swesda, als russisches Kernmodul finanzierte die NASA sogar den Bau mit. Nauka als letztes Modul ist immer noch nicht im Orbit - als ich die erste Auflage meines ISS Buchs schrieb war von 2011 die Rede, bei der zweiten Auflage schon von 2017 und inzwischen redet man von 2020. Geplant war übrigens mal ein Start für 2006 …

Dann folgten die Beförderungen von Weltraumtouristen zur ISS während der Ausbauphase. In der Zeit reichten die Ressourcen nur für einen Daueraufenthalt von zwei Personen. Eine Sojus konnte aber drei Personen. So wurde zum Teil ein Astronaut mitgeführt, der dann nach etwa einer Woche mit der alten Besatzung zurückkehrte. Russland startete aber auch Weltraumtouristen. Mit dem Vollausbau, wo die Ressourcen dann für sechs Personen reichen, musste Roskosmos dies einstellen. Trotzdem ist eines geblieben: Die Verträge gelten nach wie vor. Obwohl Russland also nur ein Modul selbst finanziert hat, hat es Anrecht auf 50 % aller Astronauten. Die restlichen 50 Prozent muss sich die NASA dann noch mit der ESA und JAXA teilen, zusammen mit einem kleinen Anteil der CSA machen die 25 % des westlichen Teils aus. Entsprechend haben ESA und JAXA im Mittel jeweils einen Astronauten alle zwei Jahre für 6 Monate auf der Station.

Nun gab es in den letzten Jahren auch zusätzliche Probleme bei den russischen Services. Zuerst bei Progress-Raumkapseln, von denen zwei verloren gingen, nun auch bei der Sojus TMA. Bisher blieb das bemannte russische Raumfahrtprogramm von den Problemen, die Russlands Raumfahrt hat, verschont, wahrscheinlich, weil man hier immer noch mehr kontrollierte und vielleicht auch besser bezahlte. Nun scheint die Dauerkrise, die Russland eigentlich seit zwei Jahrzehnten hat auch die bemannte Raumfahrt erreicht zu haben.

Dazu kommen noch die allgemeinen politischen Probleme, die es zwischen den USA und Russland gibt - Stichwort Ukraine-Annektion und Einmischung in den US-Wahlkampf - und Ankündigungen Roskosmos die bestenfalls irritierend sind, wie das man die ISS-Module abkoppeln würde, um eine eigene Station aufzubauen. Daran glaubt niemand, wahrscheinlich nicht mal in Russland, angesichts dessen das man schon Probleme hat, Nauka in den Orbit zu bekommen. Ernster zu nehmen ist die Ankündigung erneut Weltraumtouristen zur ISS mitzunehmen, wenn die USA mit ihren CRS-Raumschiffen starten, denn dann werden "eineinhalb" Sitzplätze (drei pro zwei Starts) frei. Das würde es erlauben, bei jedem Start einen Touristen mitzuführen. Die NASA kann dies nicht verhindern, ist Roskosmos doch frei in der Wahl, wen sie ins All schicken. Die NASA muss ja schon für ihre Flüge bezahlen, weil die Kompensation Russland in den Progress.-Frachttransporten besteht.

Nun taucht in dem Papier eine Passage auf, in der die Forderung steht, dass die neuen ATV fähig sein sollen, einen IDA-Adapter als Kopolungsmöglichkeit zu integrieren um an einem "US-Replacement for Zwesda" anzukoppeln. Was da also implizit steht, ist, das man erwägt, die beiden russischen Module durch US-Module zu ersetzen. Eine Ankopplung an die schon vorhandenen US-Kopplungen wäre mit dem IDA-Adapter zwar auch möglich, doch der Hauptzweck der neuen ATV-Transporter ist ja die Station anzuheben oder einem Stück Weltraummüll auszuweichen, wofür die ISS auch ihre Bahn ändern muss. Das geht nur in der Achse in der Sarja und Swesda liegen, da diese durch den Schwerpunkt der Station geht. Dafür müsste die NASA also die beiden Module ersetzen, oder zumindest eines der beiden. Dann wäre natürlich auch Roskosmos aus der Station raus, was aber unproblematisch ist, da 2016 die Zehnjahresfrist des Pflichtbetriebs nach Vollausbau ablief.

Vielleicht hofft die NASA ja auf eine Finanzspritze, wenn sie damit werben kann, dass es dann eine Station unter ihrer alleinigen Kontrolle ist - die Juniorpartner haben zwar Ansprüche, aber können anders als Russland nicht mitbestimmen. Mit Starliner und Dragon 2 sollen jeweils bis zu sieben Astronauten befördert werden - das reicht nicht nur für die jetzige Stammbesatzung von sechs, sondern sogar für einen Astronauten mehr. Sie haben auch Module die zumindest im Rohzustand sind. Das von der JAXA gefertigte Zentrifugenmodul, das derzeit ein Ausstellungsstück, das eigene zweite Labor, das für Drucktests genutzt wird und noch zwei MPLM, die man zu Labormodulen umbauen kann - ein Drittes wurde ja schon umgebaut und als Permanent Module an der ISS angebracht. Daneben gibt es natürlich noch US-Firmen, die schon lange auf Aufträge für Stationshardware warten, an der Spitze Bigelow.

Da die neuen ATV bzw. das Deorbitmodul durch die Umbauarbeiten weitere Kosten aufwerfen, bietet die NASA der ESA schon eine Kompensation an: einen permanenten Platz an Bord der ISS, bisher war ein ESA-Astronaut nur während eines Viertels der Zeit aktiv. Bei sieben Plätzen an Bord eines US-Raumschiffs ist das problemlos möglich und ich denke ähnliche Zusagen wird es auch an die JAXA geben für mehr Fracht - das HTV liefert mehr als die doppelte Fracht einer Dragon und wenn Russlands Progress wegfallen, gibt es natürlich eine Lücke. Trotzdem hätten die USA mit vier bis fünf Astronauten immer noch doppelt so viele Besatzungsmitglieder wie vorher.

Mal sehen, ob was draus wird. Angesichts der Äußerungen von Trump, der Puttin ja verteidigt, rechne ich aber nicht, damit das dieser Plan umgesetzt wird, bevor ein neuer Präsident ins weiße Haus einzieht. Obwohl bei Trump weiß man nicht, wie schnell er seine Meinung ändert...

25.11.2018: Insight – wo mal die NASA versagte

Der heutige Post ist relativ kurz, ich mache ihn anlässlich der Landung des Insight Mars Scout, der am Montagabend landen soll. Ich halte nicht viel von dem Projekt. Es ist im Kurzen wie folgt zu umreißen:

Die Raumsonde basiert im Aufbau im wesentlichen auf dem 1998 gestarteten und damals verloren gegangenen Mars Polar Lander. Er wurde modernisiert, z. B. erhielt er einen neuen Bordcomputer und leichtere runde Solarpaneele und 2007 als Phoenix Mars Scout gestartet. Dessen Systeme wurden praktisch unverändert übernommen.

Neu ist nur die Experimentensuite. Während dies bei vorherigen Raumsonden auf Basis des Busses jeweils sechs waren, sind es diesmal nur drei Instrumente. Davon stammen zwei Kameras von den USA, das Bohrgerät von der DLR und das Seismometer, das eine Startverschiebung um zwei Jahre nötig machte, von der CNES.

Gemessen daran ist das Projekt mit 1 Milliarde Dollar sehr teuer. Phoenix, auf dem die Sonde basiert, kostete noch 475 Millionen Dollar. Gut seitdem sind 10 Jahre vergangen, inflationskorrigiert wird es sicherlich teurer, aber nicht doppelt so teuer.

Ich meine es wäre mehr drin gewesen. Da zwei der Experimente mit dem Arm abgesetzt werden, hat man auf dem Deck viel Platz. Man hätte weitere Experimente mitführen können und wenn es auch nur Ersatzexemplare der Instrumente der beiden letzten Raumsonden gewesen wären. Da die Sonde mit einer Atlas 401 gestartet wurde, die mehr als die rund 700 kg zum Mars transportieren kann, wäre auch kein Gewichtsproblem vorgelegen. Der Einsatz von Ersatz-Experimenten von Curiosity ist begrenzt. Diese sind für ein mobiles Labor ausgerichtet, aber die beiden Kameras (Mastcams) wären eine nähere Betrachtung wert. Die beiden Kameras von Insight sind keine wissenschaftlichen Kameras. Sie haben vielmehr die Aufgabe für die Experimente den richtigen Absetzort zu finden und dann den Vorgang zu überwachen. Sie haben für heutige Verhältnisse einen kleinen Chip. Sie entstanden auch aus Ersatzexemplaren der Navigationskamera und Hazardkamerea des MSL – mit der entsprechend bescheidenen Bildqualität.

Ich frage mich, warum man nicht zusätzlich die Panoramakameras des MSL mitgeführt haben. Diese haben einen 2 Mpixel Chip und zwei verschiedene Brennweiten, mit denen man ein Feld von 15 bzw. 5 Grad abbilden kann – eine gute Ergänzung zu den Geschäftsfeldern von 45 und 124 Grad der beiden schon vorhandenen Kameras. Zeit genug, die ganze Umgebung hochauflösend abzubilden, hat man bei einer stationären Sonde die über mindestens ein Marsjahr arbeiten soll ja.

Man hätte sogar Zoomkameras einsetzen können. Die waren für das MSL geplant, doch da die Entwicklung der Zoomoptik hinterherhinkte, bekam Curiosity Kameras mit Fixfokusobjektiven und zwei Kameras. Bedenkt man das Curiositys Planung Ende 2003 begann und der Sensor und Zoomfunktion auf dem damaligen Stand der Technik basierte, wäre auch ein wesentlich besserer CCD-Detektor denkbar. Astronomische CCD haben immer kleinere Pixelzahlen als Consumer Hardware, doch auch da sind inzwischen 16 MPixel und mehr Standard. Bei einer Marssonde mit fester Kameramontierung und einem sich nicht ändernden Bild kann man die kleinere Pixelfläche leicht durch eine längere Belichtungszeit kompensieren. Schlussendlich haben selbst Marsorbiter nur 6 µm große Pixels.

Ich vermute die Besucher, die inzwischen an die relativ guten Bilder der Mastcams vom MSL gewöhnt sind, werden von der vergleichsweise bescheidenen Qualität der IDC und ICC Kameras enttäuscht sein, zumal diese wegen der Filterwahl deutlich rotstichige Bilder liefern.

Mit einem Arm zum Ablegen der Instrumente fallen natürlich Instrumente weg die auf Proben die mit einem Greifer gewonnen werden, angewiesen sind, aber Experimente, die man nur absetzen muss wie ein Alphateilchen-Röntgenspektrometer und eine Mösslbauerspektrometer kann man durchaus noch mitführen. Dazu wäre auch das Lidar von Phoenix als stationäres Instrument, mit dem die Menge, Größe und Verteilung von Aerosolen in der marsatmosphäre gemessen wird, einsetzbar.

Kurzum: man hätte mehr machen können. Vor allem die relativ schlechte Kameraausrüstung wundert mich. Normalerweise ist die NASA ja hier intelligenter und führt immer Kameras mit, auch wenn sie nur ein „Goodie“ der Mission sind, wie die Junocam, die zum Teil von der Planatary Society stammt – die Durchleuchtung des inneren von Jupiters geschieht mit Instrumenten, die im Infraroten oder Mikrowellenbereich abreiten. Insight ist nach Dawn die zweite US-Mission bei der US-Instrumente in der Minderheit sind: nur eines von drei Instrumenten stammt von der NASA, viel Geld steckt im französischen Seismometer und in der deutschen Wärmesonde. Beide sollen, wie der Name "Insight" sagt , das Innere des Mars durchleuchten. Das Seismometer ist erheblich sensitiver als das von Viking. Viking hatte bisher als einzige Sonde Seismometer an Bord, wobei nur eines der beiden Instrumente aktiv war, das andere konnte nach der Landung nicht aus der Arretierung gelöst werden. Damals stellte man keine Marsbeben fest. Marsbeben erwartet man sich nicht von SEIS, aber das Instrument kann auch Wellen detektieren die durch Hangrutsche oder Meteoritentreffer ausgelöst werden, wenn dies in der Nähe ist und so bekommt man doch Informationen über den inneren Aufbau des Mars, zumindest bis zum Mantel. Die deutsche HP³ Sonde soll den Wärmefluss und die Temperatur bis in 5 m Tiefe messen. Über die Missionszeit bekommt man dann neben den direkten Messungen in dieser Tiefe weitere Daten die Rückschlüsse über die thermischen Eigenschaften in noch größerer Tiefe zulassen.

Man sieht: die Forschung verlagert sich. Anstatt wie die früheren Sonden die Oberfläche zu untersuchen, geht man nun in die Tiefe. Auch der Exomars-Rover wird ja in die Tiefe bohren.

Ich vermute bei der Landung wird aber mehr Aufmerksamkeit den beiden Cubesats (Marco 1+2 – Wall E und EVE) gelten, die die NASA mit auf den Weg schickte. Jeder der beiden wird Daten von Insight übertragen, was die NASA sicher feiern wird. Angewiesen ist sie aber auf sie nicht. Zum einen überträgt insight vom Abstieg direkt Daten, wenn auch nur ohne Richtantenne in Form von Statuswörtern. Zum anderen überfliegen die US-Marsorbiter den Landeplatz. Der MRO während der Landung, er wird wie bei den beiden vorherigen Landungen versuchen, mit seiner hochauflösenden Kamera die Sonde am Fallschirm hängend aufzunehmen. Kurz nach der Landung dann Odyssey, die schon seit 16 Jahren den Planeten umrundet. Ich vermute nach den ersten Bildern an den ersten Tagen nach der Landung wird das Interesse der Öffentlichkeit rasch abnehmen – die Landschaft kann man nur einmal abbilden, dann ändert sich ja an der Sicht nichts mehr und die anderen beiden Instrumente werden erst nach 60 Tagen ausgesetzt und aussagekräftige Daten der Langzeitinstrumente wird es erst nach Monaten oder Jahren geben.

Man hätte es besser machen können...


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99