Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 62 : 4.5.2008-18.5.2008

Sonntag 4.5.2008: Verschwendete Zeit und die Taurus II

Ich komme gerade zurück von einer Woche Arbeitsurlaub in unserem Ferienhaus in Nesselwang. Das ist eine Woche in der ich den Großputz mache, mich um den Garten kümmere, Unkraut aus den Fugen kratze und alles mit dem Hochdruckreiniger reinige. Dieses mal stand auch noch eine Innenreinigung mit dem Dampfreiniger und das Neustreichen der Außentüren und des Garagentors mit auf dem Programm. Kurzum: es ist eine Woche mit viel Arbeit, mindestens die Hälfte des Tags ist damit voll.

Daheim habe ich Probleme, mich 1-2 Stunden pro Woche für den Garten und Hausputz aufzuraffen. Hier mache ich das jeden Tag. Warum? Nun zum einen weil ich es eben eine Woche lang tue, danach fahre ich wieder heim. Zum anderen weil es notwendig ist und das Haus vermietet wird. Würde ich es nicht tun, so müsste ich dafür bezahlen. vor allem für mich aber wesentlich: Es gibt kaum Ablenkung. Obgleich in der Verwaltung Internetzugang ist habe ich drauf verzichtet eine Woche lang zu surfen, Mails abzurufen oder andere Dinge zu tun. Ich habe mir mal Gedanken gemacht, wie viel Zeit dafür drauf geht. Das ist eine ganze Menge. Rechne ich das zusammen, so sind das einige Stunden am Trag. Vor allem lenkt es viel ab. Da möchte man nur "mal kurz" die Mails checken und zack hockt man wieder längere Zeit am Rechner und vertrödelt seine Zeit.

Ich habe ja in den letzten Jahren vieles  von den interaktiven Teilen des Webs durchprobiert: Foren beigetreten, Chats besucht, Messenger Kontakte gepflegt, Videos gedreht, einen eigenen Blog aufgemacht. Von vielem habe ich mich wieder verabschiedet: Bei den Videos als ich gemerkt habe, dass ich nach dem begrenzten künstlerischen Potential auch an die Grenzen der technischen Möglichkeiten von VirtualDub kam. Chats sind Zeitverschwender und enorm ineffektiv, ich mache das nur noch mit einigen Freunden in einem privaten 3-4 Personen Chat über Messenger. Man kann praktisch nichts daneben machen und trotzdem wenig sagen.

Messenger nutze ich nur für wirklich wichtige Dinge: Meistens inzwischen beruflich, weil wir auch einen XMPP Server an der Hochschule haben, und ich so eher die Leute erwische die dauernd im Haus unterwegs sind als per Mail oder Telefon. In meinem Urlaub habe ich darüber nachgedacht und mich entschlossen noch etwas weniger zu tun. Das betrifft hier nun den Blog. Ich habe den eigentlich als einen "Blog anderer Art" etablieren wollen. Für Themen, Meinungen die nicht  In den letzten Monaten habe ich versucht jeden Tag so etwas zu finden und zu schreiben und meine Webseite vernachlässigt. Ich will dies nun wieder zurückführen auf das, als was er mal gedacht war: Eine Sparte mit ergänzenden Infos und die müssen vielleicht nicht so regelmäßig kommen, weil mein Hauptinteressengebiet ja Raumfahrt ist und da gibt wes nicht so viel Neues, als das es für eine tägliche Kolumne reicht und die Nachrichten die man in Space.com, Spaceref.com etc. findet nachzubeten habe ich auch nicht vor.

Daher ab heute eine Änderung: Den Blog wird es seltener geben. Ich würde mir auch mehr Interaktivität wünschen. Ich könnte mir z.B. vorstellen hier Fragen zu beantworten. Fragen zu dem Gebiet von dem ich etwas verstehe: Satelliten, Raumsonden und Trägerraketen.

Doch heute gibt es ein aktuelles Thema: In den USA wird eine neue Trägerrakete entwickelt. Es ist die Taurus II. Über sie selbst gibt es wenig Daten. OSC (Orbital Sciences Corporation), Hersteller der Rakete gibt als Nutzlast die "Delta II" Klasse an, das sind etwa 5-6 t. Die Rakete soll ein Versprgungsrausmschiff starten Dieses transportiert 2.3 t Fracht zur ISS und 1.2 t zurück zur Erde (offen ist ob sie beim Wiedereintritt verglüht oder heil ankommt). Es gibt dann noch eine Zeichnung aus der man die Stufenzahl herauslesen kann und die Höhe und Durchmesser. Alles andere ist Spekulation.

Interessant daran sind folgende Dinge:

Die NASA hat auch einen Auftrag an SpaceX vergeben, Hersteller der Falcon. Im Rahmen des COTS Programmes entwickeln diese eine Kapsel namens Dragon. Aufgrund der höheren Nutzlast der Falcon 9 kann die Dragon nicht nur 2500 kg zur ISS bringen, sondern auch 2500 kg Fracht zur Erde zurückbringen, ja es wären sogar bemannte Missionen (z.B. als Rettungsraumschiff) möglich. 3 Teststarts sind 2009 geplant (zumindest nach der SpaceX Website, wahrscheinlich ist dieser Zeitplan nicht zu halten).

Die Frage ist nun in wie weit sich diese neue Kapsel und neue Trägerrakete in das ISS Konzept einfügt. Klar ist, dass die USA ihren Beitrag zur Versorgung leisten müssen. Sie haben den größten Anteil an der ISS. Japan und Europa führen etwa 1 Flug pro Jahr aus, und transportieren 6-9 t Fracht/Jahr zur ISS. Russland 4-5 Flüge mit noch etwas mehr Fracht. Die USA müssten viel mehr Fracht als die anderen Partner transportieren. Dafür würde eine größere Kapsel viel mehr Sinn machen. Sonst braucht man sehr viele Flüge. Ein Raumtransporter selbst ist preiswert zu fertigen. Die Entwicklungskosten sind der Knackpunkt. Das ATV kostete z.B. 1.35 Milliarden Euro für die Entwicklung und den Start des ersten ATV Jules Verne. Jeder weitere kostete aber nur 220 Millionen Euro. Wenn man das ATV nur halb so groß fertigt wird man kaum etwas einsparen. Das teure ist ja nicht die Struktur zum Aufnehmen von Fracht, sondern die Triebwerke, die Ankopplungsadapter, die Steuerung und Triebwerke.

Doch selbst, wenn man kleinere Raumschiffe entwickelt. Warum braucht man eine neue Trägerrakete? Es gibt ja die Delta II schon. Sie ist zuverlässig und verfügbar. Es ist nicht ausgemacht ob die Taurus II preiswerter ist. Die Pegasus und Taurus I sind teuer und wurden in den letzten Jahren kaum noch eingesetzt. Umgekehrt kann man bei vielen Delta Starts Rabatte erhalten. Einen solchen handelte die NASA Ende der neunziger Jahre aus, als sie für zahlreiche Starts von Raumsonden die Delta II nicht mehr einzeln sondern in Losen kaufte.

Wahrscheinlicher wäre aber ein größeres Versorgungsraumschiff und der Start mit einer Atlas V oder Delta IV eine bessere Lösung, einfach weil die Kosten pro Start geringer werden.

Mittwoch: 7.5.2008: Phoenix vor der Landung.

PhoexnixAm 25.sten Mai soll der Phoenix Mars Scout landen. Die letzte Kurskorrektur gab es am 10.4. nachdem hochauflösende Aufnahmen der HiRISE Kamera des Mars Reconnaissance Orbiters zeigten, das ein Tal, 13 km südwestlich der geplanten Landestelle, flacher und besser für eine risikolose Landung geeignet, ist als das bisherigen Gebiet. Bei einer Landeellipse von 62 x 20 km Größe muss man ein recht großes Gebiet haben das weitgehend eben und frei von Brüchen und Steinen ist.

Phoenix dürfte die wohl am besten vorbereiteste Mission der NASA sein, die auf dem Mars landet. Erstmals gab es mit dem Mars Reconnaissance Orbiter die Möglichkeit Bilder der Landestrelle mit einer Auflösung von 35 cm zu machen, damit kann man jeden Stein der der Sonde gefährlich werden kann vorher ausmachen. (Zum Vergleich: Die Viking Lander und Mars Pathfinder landeten in einem Gebiet, das man vorher nur mit einer Auflösung von 40 m/Pixel kannte).

Daneben ist der Landevorgang mehrfach untersucht worden, nachdem der direkte Vorgänger von Phoenix bei der Landung ausfiel. Phoenix ist weitgehend baugleich zu dem Mars Polar Lander der 1999 verloren ging. Sie verfügt jedoch über etwas modernere Instrumente. Phoenix landet konventionell mit einem Fallschirm und dann mit einem Packet von Düsen, welche ihn langsam auf den Boden sinken lassen. Airbags wie bei den Rovern kommen nicht zum Einsatz.

Ursprünglich sollte Phoenix schon 2001 zum Mars. Doch nachdem der Mars Polar Lander verloren ging und es dem Orbiter im gleichen Startjahr genauso erging beschloss man 2000 das Programm für 2001 umzustrukturieren. Man lagerte die Sonde, nachdem sie fertiggestellt wurde, ein und investierte die Mittel für Start und Operationdurchführung eine Verbesserung des Managements, der Qualitätskontrolle und Flugsicherung bei dem Orbiter. Dies zahlte sich aus, den Odyssee 2001 umkreist heute noch den Mars und liefert Daten, auch wenn er inzwischen technisch veraltet und durch den MRO nicht nur ergänzt, sondern weitgehend übertroffen wurde.

Als 2003 wieder eine neue Mission ausgeschrieben wurde, gab es den Vorschlag die Mission wiederzubeleben. Daher auch der Name Phoenix, ein mystischer Vogel der aus seiner Asche wiedergeboren wird. Aus der preiswerten Mission wurde dadurch eine recht teure, denn das Reaktivieren kostete mehr als man bis dahin investiert hatte.

Phoenix ist zwar älter als die Rover, die immer noch auf dem Mars herumfahren, aber sie ist instrumentell besser ausgestattet. Das liegt daran, dass die Sonde sich nicht vom Landeplatz wegbewegen wird und dadurch mehr Instrumente mitführen kann. Das Risiko dabei ist natürlich, dass in Reichweite ihres Greifers keine interessante Bodenprobe ist. Neben physikalischen und chemischen Analysen der Bodenproben, gibt es Untersuchungen der Atmosphäre durch Gasanalyse, Laserrückstreuungen und Wetterbeoachtungen.  Ein Atomkraftmission wird den Boden bis zu kleinsten Skalen untersuchen. Kameras werden ein hochauflösendes Panorama der Landestelle machen und Aufnahmen des Bodens aus der Nähe.

Die Zeit zwischen dem Einmotten und Reaktivieren nutzte man, um zahlreiche Instrumente auf den neuesten Stand zu bringen. So haben die Kameras nun CCD Chips mit der 16 fachen Pixelanzahl, verglichen mit den alten (die noch bei Pathfinder zum Einsatz kamen).

Eines wird Phoenix aber auf jeden Fall sein: Eine zeitlich begrenzte Mission. Die Raumsonde bezieht ihre Energie aus Solarzellen und landet nahe des Nordpols bei 68 Graf nördlicher Breite. Ein Gebiet das bisher kaum bekannt ist. Solange es Sommer auf der Nordhalbkugel ist, haben die Panels genügend Licht um Strom zu produzieren.  Sie profitieren sogar von der Mittsommerzeit bei dem es nie richtig dunkel wird. Wenn es dann Herbst wird, wird es kritisch und wenn es Winter wird, wird sie Sonde endgültig verstummen: Auf dem Mars herrscht wie auf der Erde, nahe der Pole dann eine mehrmonatige Polarnacht, ohne Sonnenschein und die Batterie und zahlreiche andere Systeme werden einfrieren bei Temperaturen, gegenüber der es bei unserer Antarktis richtig warm ist.

Die Primärmission solle sich über 90 Tage erstrecken. Danach ist eine Verlängerung möglich, abhängig von den Wetterbedingungen. Man hofft auf 120-150 Tage, spätestens nach 180 Tagen ist der Sonnenstand zu niedrig um einen Betrieb zu ermöglichen. Phoenix wird also bestimmt nicht, wie die Rover über mehrere Jahre arbeiten.

Phoenix ist auch in einer anderen Beziehung bemerkenswert: Es ist die letzte Raumsonde, die noch von der Clinton Administration genehmigt wurde. Bedingt durch die Entwicklungszeit bei Raumsonden und die Einlagerung, startet sie nun erst zum Ende von  Bushs Regierungszeit. Damit brechen aber auch für Raumfahrtautoren, wie mich ruhigere Zeiten an. Denn Bush hat zwar hochtrabende Pläne, um bemannt zum Mond zu kommen, aber wenig für Forschung übrig. So sind nur 3 Raumsonden derzeit im Bau: Dieses Jahr der gemeinsame Start des Lunar Reconnaissance Orbiters und des LCROSS Experiments und 2009 den des mobilen Mars Labors. Alle weiteren Missionen sind derzeit noch im Planungsstadium und vor 2011 wird es keinen Start mehr geben. Selbst zum Mars, zu dem in den vergangen Startfenstern mindestens eine Sonde startet wird es 2011 keinen Start geben.

Dienstag 12.5.2008: Energija und Buran

EnergijaIch habe gestern einen neuen Aufsatz fertiggestellt - über die Energija. Es gibt schon seit einigen Jahren einen über Energija und Buran auf meiner Website. Der Transfer der Buran ins Technikmuseum bei Speyer hat mich inspiriert nach neueren Informationen zu suchen und ich fand auch welche. Allerdings in russisch. Das machte die Recherche nicht gerade einfacher. Zwar ist die russisch - englische Online Übersetzung recht brauchbar (zumindest wenn man in Gedanken rekonstruieren kann wodurch einige "blumige" Übersetzungen entstanden). Doch das Problem waren, dass es die meisten Infos in Webseiten gab, die aus Kapiteln eines Buches entstanden. An und für sich ideal - man findet so jede Menge Infos. Nur macht dann die Online Übersetzung von Google nach einem Viertel des Inhalts schlapp. So dass man dies mühsam per Copy & Paste erledigen muss.

Die Recherche bestätigte einiges, was ich schon vorher wusste: Das Energija und Buran entwickelt wurden um einer potentiellen Bedrohung durch die Space Shuttles zu begegnen. Diese Paranoia, die ja Militärs eigen ist (Baust Du 1000 Atomraketen, dann muss ich 2000 bauen, auch wenn schon 100 reichen um das gesamte Land des Gegners in die Steinzeit zurück zu bomben) wurde dann noch durch SDI gesteigert. Energija sollte nun auch Satellitengestützte Weltraumwaffen transportieren und Buran nukleare Sprengköpfe abschießen.

Dafür ist immer Geld locker zu machen. sogar viel mehr als für einen Wettlauf mit Apollo zum Mond. Dabei hat man dazu gelernt und wie bekannt gab es zwar nur 2 Starts der Energija, aber diese verliefen erfolgreich. Dabei war der Entwicklungssprung von der Technologie die man vorher hatte zu Energija und Buran viel größer als bei der N-1. Aber man testete die Rakete viel intensiver vorher und achtete auch viel mehr auf Zuverlässigkeit und Sicherheit. Bis auf 20 Sekunden (102-122 Sekunden nach dem Start) gab es immer die Möglichkeit die Besatzung zu retten.

Die systemimmanente Sicherheit war dabei größer: Man konnte jederzeit die Triebwerke abschalten, anders als dies beim Space Shuttle der Fall ist. Das alles hatte aber seinen Preis. So kosteten 4 Block-A Booster 74.4 Millionen Rubel. Die Block A Booster waren zu 70-75 % identisch zur ersten Stufe der Zenit. Doch diese kostete nur 4.5 Millionen Rubel. So kostete auch ein Energija Start 145-155 Millionen Rubel und ein Start von Energija und Buran 350 Millionen Rubel. Das bedeutete, dass Energija, berücksichtigt man den damaligen Rubel- und Dollarkurs sogar teurer als ein Space Shuttle Start war. Zur selben Zeit wurde die Proton im Westen für 12-20 Millionen Dollar pro Start angeboten - Ein Fünftel bis ein Drittel des Preises den man für eine Ariane 4 zahlen musste.

Im wesentlichen war dies meiner Ansicht nach der Todesstoß für Energija und Buran. In einer kollabierenden Volkswirtschaft war kein Platz mehr für solch teure Projekte, zumal nun auch die Sowjetunion erkannte das weder SDI noch die Space Shuttle eine militärische Bedrohung darstellten.

Es gab zwar noch die Pläne die Energija kommerziell anzubieten. Eine kleinere Version, Energija-M mit 34 t Nutzlast wurde entwickelt. Doch zum einen war diese immer noch zu groß für vorhandene Nutzlasten. Zum anderen änderte dies auch nichts an den hohen Kosten der Energija. Ob dies mit Energija -2 gelungen wäre halte ich auch für fraglich. Die Energija 2 verzichtete auf den Shuttle Orbiter und transportierte direkt 30-35 t in die Umlaufbahn. Die Zentralstufe war nun geflügelt, mit einem Hitzeschutzschild und um 60 % verkleinert worden. Wiederverwendung sollte die Kosten senken. Nehmen wir Block-A nominell ist er 4 mal teurer als die Zenit Erststufe. doch er sollte 10 mal wieder verwendet werden, was die kosten dann auf 40 % senken sollte. Sollte, das ist das Stichwort. Schließlich verkalkulierte man sich auch beim Space Shuttle in dieser Hinsicht.

Energija war dann noch eine Zeitlang Bestandteil von NASA Plänen für eine bemannte Marslandung, wie sie vermehrt Ende der neunziger Jahre entwickelt wurden. Doch es kam nie zu einer konkreten Zusammenarbeit. Seit 2000 ist eine Wiederaufnahme der Produktion nicht mehr sinnvoll. Produktionsanalgen und der Startkomplex sind nach 10 Jahren verfallen. Wenn man heute zum Mars aufbricht, dann wahrscheinlich mit einer Ares V.

Immerhin hält die Energija noch einen Rekord: Den der größten je in den Orbit beförderten Bruttomasse (letzte Stufe und Nutzlast zusammen). Mit 178.3 t ist diese größer als beim Space Shuttle (142.8 t) und der Saturn V (zweistufig 130-135 t, dreistufig 143 t).

Donnerstag 14.5.2008: Supermenschen

Lese ich in meiner Computerzeitung Testberichte, so werde ich immer öfters den Eindruck nicht los, dass das typische Publikum aus Supermenschen besteht. Denn was hier gefordert wird für "Spieletauglichkeit" oder "Auflösung zum Arbeiten" hat definitiv nichts damit zu tun, was jemand erkennen kann oder wie schnell er reagieren kann.

Ich möchte das an zwei Beispielen verdeutlichen: Der Auflösung des Auges und der Reaktionszeit. Die Auflösung des Auges zu bestimmen ist nicht ganz einfach. Bei den üblichen Sehtests geht es sehr oft auch um Mustererkennung. Vereinfacht gesagt: Wenn wir Zahlen ablesen so wissen wir, das eine "1" schmal ist und eine "8" breit und sich die Form unterschiedet. Daher hört sich bei mir an der grenze des Sehvermögens auch die Antwort so an "Das könnte eine 5 oder eine 2 sein".

Wer mal bei den Sehtests den Kopf bewegt wird auch feststellen, dass für einen kurzen Augenblick das Bild schärfer wird, da offenbar das Auge bei Bewegungen besser ist. noch schlimmer: Die Zone schärfsten Sehens ist nicht in der Mitte des Auges, man muss also schräg vorbeisehen, eine Technik die z.B. Teleskopbeobachter kennen.

Die Auflösung des Auges ist je nach Lichtverhältnissen und Objekt daher einigen Schwankungen unterworfen und schwankt zwischen 0.5 und 2 Bogenminuten, der häufigste genannte Wert ist eine Bogenminute.

1 Bogenminute, das ist ein Winkelmaß und entspricht einem 1/3500 stel des Abstands. Aus 350 mm Entfernung kann das Auge also 0.1 mm große Details gerade noch erkennen. Das muss man schon früher gewusst haben und vielleicht erinnert sich noch einer an den Merksatz für das analoge Fernsehen: Abstand = 5 x die Bilddiagonale. Bei der Auflösung von PAL Fernsehen deckt sich das recht gut mit der Auflösung des Auges. Doch nun haben wir Full HD mit 1920 x 1200 Bildpunkten. Die ct' die überblicken, aber ich lese empfiehlt das ab 42 Zoll Diagonale. Gemäß den optischen Gesetzen sollte man dann näher als 165 cm dran sitzen. das erscheint mir bei 110 cm Diagonale doch arg nah. Noch schlimmer: Das Auge kann zwar ein so großes Feld noch nicht in voller Schärfe (sie nimmt rasch zur Peripherie hin ab) und vor allem konzentriert sich die Aufmerksamkeit auf einen kleinen Bereich der bewusst wahrgenommen wird.

Bei dem Full HD Fernsehen wird immer von Kinofeeling geschwärmt, weil die Diagonalen nun viel größer bei den Flachbildschirmen sind als bei der Röhre. Doch das hat mehr was mit dem Gefühl des "in dem Film drin sein" zu tun als mit der Auflösung. Denn 35 mm in guter Qualität löst nur 875 Linienpaare das sind 1750 Punkte in der langen Seite. Tests an Beobachtern im Kino zeigten sogar noch eine schlechtere wahrgenommene Auflösung von 800-900 Punkten in der Horizontale. Das ist schon weniger als die 1280 x 720p Auflösung.

Den gleichen Trend sehen wir bei Notebook Displays. Da gibt es 12" Displays mit 1440 x 900 Punkten - Der Auflösung eines 19 Zoll Monitors gepresst auf 12 Zoll. Das ist eine Auflösung von 147 dpi. Das Auge eines normalsichtigen sollte das ohne Problem aus 60 cm Entfernung erkennen können. So gesehen also kein Problem. Leider doch, denn jeder der an einem solchen Display arbeitet geht näher ran. Nicht nur das 50 % der Bundesbürger eben nicht normalsichtig sind sondern kurz- oder weitsichtig , Hornhautverkrümmung haben oder einfach nicht 100 % Sehschärfe. Vor allem strengt es an wenn man an der Grenze der Auflösung Details wahrnehmen muss und dies ist dann gegeben. Das wird munter in den Testberichten ignoriert.

Mein Lieblingsthema sind aber Spieler. Tun sie sich mal einen Spaß und unterhalten sie sich mit einem Spieler von Action Shooter über Frameraten und die Vor und Nachteile von TFTs und Röhrenmonitoren. Die ct testete spezielle Gamer-TFTs mit einigen Zusatztechniken die diese für Spiele besser machen sollen wie z..b. die Simulation der Röhre indem man nach dem Bild ein Schwarzbild hinterherschickt. Nahezu keine Technik befriedigte die Spieler. Die kamen aber sehr gut mit Verzögerungen von 1-2 Frames zurecht und auch ultrakurze Schaltzeiten von 2 ms mussten es nicht sein: Die Profispieler die damit ihr Geld verdienten meinten ab 16 ms Schaltzeit (definiert von Schwarz auf Weiß, entsprechend etwa 40 ms für nah beieinander liegende Grautöne) wären die TFT's für Spiele geeignet - das sind heute alle.

Das verwundert einen nicht. Schon seit 100 Jahren, seit es Film gibt weiß man dass das Auge ab etwa 16 fps Bilder nicht mehr auseinander halten kann und eine fließende Bewegung sieht. Mit den 24 bzw. 25 fps von Film und Fernsehen ist man also auf der sicheren Seite. Das ist eine Seite der Medaille. Höhere Frameraten sind bei Spielen unnötig, da man aus anderen Gründen nicht schneller reagieren kann: Das betrifft die Verarbeitung von Signalen im Gehirn und die Leitung dieser. Die einfachsten und am schnellsten verarbeiteten Signale die unser Körper verarbeiten kann sind Schmerzsignale. Vielleicht haben sie im Bio- Unterricht mal einen Versuch gemacht der so läuft: Ein Proband wird in die Hand gestochen und hält einen Schalter. Gestoppt wird die Zeit zwischen Piksen und wegnehmen der Hand vom Schalter. Wenn sie gut sind, dann erreichen sie Reaktionszeiten von 80 ms. Das ist das maximal mögliche bei der Nervenleitung beim Menschen. Vor allem die chemische Weiterleitung an den Nervenenden limitiert hier. Normal sind aber eher 120 ms. Muss man Information verarbeiten, z.B. etwas was man im Auge sieht und dann bewusst reagieren, so braucht man viel länger. Bei Verkehrsdelikten rechnen Gutachter wirklich mit einer Schrecksekunde: Es kann bis zu einer Sekunde dauern bis jemand der jemanden vors Auto laufen sieht auf die Bremse steigt. Viele schaffen es schneller doch 1 Sekunde sind das Maximum das dann zugunsten des Angeklagten angenommen wird.

Bei den Ego Shootern rechnet man natürlich damit das ein Gegner kommt und reagiert auf das kleinste Anzeichen. Doch selbst hier wird man immer langsamer sein als bei der reinen Schmerzreaktion, bei der das Großhirn gar nicht mehr beteiligt ist sondern das Rückenmark einen Reflex auslöst. Unter diesem Aspekt machen Display Schaltzeiten im Millisekunden Bereich oder Frameraten von 30, 50 oder 100 fps keinen Sinn, wenn die minimale Reaktionszeit dann deutlich über 150 ms liegt.

Aber wie schon gesagt - wir sind ein Volk von Supermenschen....

Montag 19.5.2008: Vom Nutzen eines Netzes von Datensatelliten

HESSI GroundtrackSatelliten haben ein Problem: Je näher sie der Erde sind, desto schneller flitzen sie von der Erde aus gesehen über den Horizont. Ein Satellit in etwa 500 km Höhe hat z.b. zu einer Bodenstation nur etwa 6-10 Minuten lang Kontakt. Noch schlimmer: Da sich die Erde um ihre eigene Achse dreht, passiert der Satellit beim nächsten Umlauf ein Gebiet weiter westlich. Wie weit westlich, hängt von der Bahnneigung und Bahnform (Ellipse, Kreis, Abstände) ab. Es können bei einer niedrigen kreisförmigen Bahn bis zu 2500-3000 km sein, so dass der Satellit dann schon außerhalb des Empfangsbereiches ist, und man nur etwa 1-2 mal Kontakt mit ihm pro Umlauf hat.

Was kann man dagegen tun? Nun es gibt eine Reihe von Lösungen. Wenn die Bahn nicht durch die Beobachtungen vorgegeben ist, so ist eine äquatoriale oder polare Bahn günstig. Die äquatoriale ist dabei die bessere. Ein Satellit der parallel zum Äquator seine Bahn zieht, passiert jeden Punkt am Äquator pro Umlauf genau einmal. Immerhin eine Verbesserung pro Bodenstation von einem Kontakt pro Tag auf einen pro Umlauf, also etwa 10 mal öfters Kontakt. Mit etwa einem Dutzend Bodenstationen könnte man den ganzen Orbit abdecken (abhängig von der Bahnhöhe). Bei einer Reihe von astronomischen Satelliten, die mit einer Scout Rakete von einer Startplattform vor Kenias Küste aus gestartet wurden, hat man dies z.B. so gemacht. Das Bild rechts zeigt den "Groundtrack", die Abbildung des Fußpunkts auf der Erde unter dem Satelliten. Der Satellit ist HESSI, ein Röntgensatellit, der sich in einer Bahn mit 38 Grad Inklination befindet. Damit überfliegt er den Bereich von -38 bis + 38 Grad Breite, mit den 6 Bodenstationen die Daten empfangen können.

Ein polarer Satellit passiert pro Umlauf einmal die Pole. In Polnähe stationierte Empfangsstationen (praktisch nur möglich nahe des Nordpols in Russland, Grönland, Spitzbergen, Kanada und Alaska) haben dann auch einen Funkkontakt pro Umlauf, man kann aber nicht mit mehr Stationen dann den ganzen Umlauf abdecken, da in niederen Breiten es nach wie vor eine Verschiebung pro Orbit gibt. Zahlreiche Erdbeobachtungssatelliten, die ja aus polaren Bahnen auch die ganze Erde abbilden können (jede Bahn mit niedrigerer Inklination deckt nur ein Teilgebiet bis zum Breitengrad der Inklination) nutzen diese Bahnen. Sehr viele Bodenstationen sind nahe der Polgebiete. Die ESA hat z.B. einen ganzen Empfangskomplex in Nordnorwegen bei Kiruna.

Jede Bahn dazwischen macht sehr viele Bodenstationen notwendig. Das ist dumm, denn die wichtigsten Startplätze liegen in mittleren Breiten und die Bahnen niedrigster Energie haben dann als Bahnneigung den Breitengrad des Startorts, der dann zwischen 28.8 Grad (Cape Canaveral) und 51.7 Grad (Baikonur) liegt.

Eine andere Lösung ist es weiter weg von der Erde zu gehen. Dann sinkt aber die Nutzlast einer Rakete, da man Hebearbeit verrichten muss (warum soll es einer Rakete anders gehen, als Ihnen, wenn sie mal in einem Hochhaus das Treppenhaus genommen haben, dann wissen sie was Hebearbeit ist). Zudem sinkt bei Erdbeobachtungssatelliten mit steigender Entfernung die Auflösung, d.h. will man eine bestimmte Auflösung beibehalten, dann muss die Optik zum Vergrößern größer werden und wiegt mehr. Das ist also keine gute Lösung. Für Wettersatelliten ist es jedoch ein guter Kompromiss. Um das Wetter vorhersagen zu können, braucht man keine hochauflösenden Bilder. Bilder mit einer Auflösung von 1 km/Pixel reichen dafür locker aus. Dafür sieht man aus 1400 km Entfernung aber auch mehr von der Erde und kann größere Gebiete auf einmal ablichten. Daher umkreisen Wettersatelliten üblicherweise die Erde in Bahnen oberhalb von 1000 km Höhe.

Noch besser wäre es allerdings, man hätte dauernden Funkkontakt wie zu Satelliten im geostationären Orbit. Das dachte sich auch die NASA. Auch umgekehrt wird ein Schuh draus: Ein Satellit im geostationären Orbit hat Funkverbindung zu allen Satelliten auf einer Hemisphäre. Mit zweien, um 180 Grad im Orbit versetzten, kann man zu allen Satelliten eine Verbindung aufbauen.

In den siebziger Jahren entwickelte man bei der NASA daher das Tracking and Data Relay Satellite System (TDRSS). Das Ziel war, zum einen Großteil der Bodenstationen überflüssig zu machen. Dadurch sollte man einen dreistelligen Millionenbetrag pro Jahr einsparen - alleine damit wäre das System schon zu finanzieren. Satelliten hätten nun auch je nach Orbithöhe zwischen 95-100 % ihrer Umlaufszeit Kontakt zu einem Satelliten. Die Datenmenge würde so rapide ansteigen. Vor allem aber war das System wesentlich für das Space Shuttle. Anders als frühere Missionen, sollte das Space Shuttle sehr viele wissenschaftliche Experimente im Orbit durchführen. Dabei fielen viel mehr Daten und Videoaufzeichenungen an, als bei früheren bemannten Missionen an. Mit den TDRSS Satelliten machte es erst einen Sinn, denn die Möglichkeit zur Datenspeicherung an Bord waren begrenzt.

TDRSS A-GDie USA entwickelte so das TDRSS System bestehend aus zuerst 3 Satelliten. Nach 5 Jahren sollten diese durch 3 weitere ersetzt werden. Die TDRSS waren die schwersten bis dahin entwickelten Satelliten. Jeder wog 2268 kg und konnte nur mit einem Space Shuttle mit einer IUS Oberstufe gestartet werden. Der Satellit trägt einen ganzen Antennenwald. Für den Empfang im S-Band in dem damals die meisten wissenschaftlichen Satelliten sandten, gab es 30 Dipolantennen, mit 12 konnte auch gesendet werden. Zwei ausrichtbare Antennen an Auslegern konnten im S und Ku Band senden und empfangen. Sie dienten vor allem Hochgeschwindigkeitsübertragungen. Bei einem Öffnungswinkel von 22 x 28 Grad deckte jede Antenne aber trotzdem noch die ganze Erde und Orbits bis 530 km Höhe ab. Eine kleinere Parabolantenne diente zur Datenübertragung zum Boden.

Die erste Generation konnte bis zu 6 MBit/s im S-Band und 300 MBit/s im Ku Band senden. Der Aufbau des Netzwerkes verzögerte sich durch die Challenger Explosion. Bei dieser ging der zweite Satellit verloren und da man die Satelliten nur mit Space Shuttles starten konnte stand so auch der Aufbau des Netzwerks. Wie wichtig die TDRSS Satelliten waren, zeigt auch, dass der erste Start nach dem Verlust der Challenger wiederum einen TDRSS Satelliten in den Orbit beförderte.

Die NASA hatte 7 Exemplare der ersten Generation bestellt. Zum einen jeweils 3 für die komplette Überwachung im Orbit mit je einem Reserveexemplar, wenn die Lebendauer des ersten Satelliten sich dem Ende zuneigte. Der siebte war das Ersatzexemplar für den verlorenen gegangenen TDRSS-B bei der Explosion der Challenger. Die zweite Generation basierte auf dem kommerziellen Satellitenbus HS-601. Sie war auch leichter  (im geostationären Orbit noch etwa 1500-1600 kg schwer) und konnte nun mit einer Atlas 2A gestartet werden. Der wesentliche Aufbau ähnelt der ersten Generation, wenngleich es durch den Satellitenbus kleinere Unterschiede gibt (wie z.B. längere Solarpanel). Neu war die Unterstützung des Ka Bandes und die 10 fache Datenrate bei den Einzellinks im S-Band.(bis zu 3 MBit bei maximal 5 Links). Im Ka Band erreichen die Satelliten der zweiten Generation (TDRS H-J) bis zu 800 MBit/s.

Die drei Satelliten der zweiten Generation wurden von 2000-2002 gestartet. Da noch alle jemals in einen Orbit gelangten Satelliten aktiv sind, selbst TDRS-A welcher zuerst in einen Flaschen Orbit gelangte und so einen Großteil seines Lageregelungstreibstoffs schon verbraucht hatte als er den eigentlichen geostationären Orbit erreichte. Er überträgt heute aber nur noch Daten einer Südpol Forschungsstation in die USA).

Zwei weitere TDRSs Satelliten die ebenfalls auf dem HS-601 Bus basieren werden 2012/2013 starten. Die ESA dachte auch einmal an ein eigenes Data Relay System als eigenen Beitrag für die ISS, hat dies jedoch wieder begraben. Und erbringt nun die Leistungen durch das ATV. Die Schwäche des TDRSS ist die begrenzte Anzahl an Hochgeschwindigkeitslinks. Dies ist zum begrenzt durch nur zwei große Parabolantennen, da man für eine hohe Datenübertragung einem Objekt folgen muss.

TDRSS H-JDa die NASA aber nicht mehr sehr viele Missionen betreibt die hohe Datenraten erzeugen ist dies zu verschmerzen. Biel mehr haben nun andere Betreiber den Bedarf an einem Daten Relay System. Deutschland betreibt z.B. derzeit 6 RADAR Satelliten (5 der Bundeswehr, 1 ziviler). Nächstes Jahr werden es 7 sein.  Alleine der zivile TerraSAR-X sendet Daten mit 300 MBit/s zum Boden. Gewinnen kann er Daten sogar mit 680 MBit/s. Für Deutschland alleine würde sich also schon ein Datenrelay Netzwerk lohnen. (Die Bundeswehr lässt zwar derzeit zwei Kommunikationssatelliten entwickeln, doch dienen die zur Verbindung der Truppe in Friedenseinsätzen rund um die Welt mit Deutschland). Das gleiche könnte man von der ESA sagen die jetzt schon Envisat und ERS-2 betreibt und bald eine ganze Flotte von Erdbeobachtungssatelliten entwickeln will.

Selbst zivile Satellitenbetreiber könnten von Datenübertragungssatelliten profitieren. Wourldview 1 von Digiglobe z.B. überträgt die Daten mit 800 MBit/s zum Boden, kann wegen der begrenzten Kommunikation einmal pro Umlauf aber pro Tag nur etwa 500.000 km² ablichten, etwas mehr als die Landfläche Deutschlands. Das liegt an der Auflösung von 0.41 m pro Bildpunkt (500.000 km² entsprechen so etwa 3000 Milliarden Bildpunkten pro Tag. Für Digiglobe alleine wird ein solcher Satellit wohl zu teuer sein. Die TDRSS K+L Satelliten kosten alleine 695 Millionen Dollar, dazu kommen noch die Startkosten.

Ein Ausweg wäre wohl die optische Kommunikation. Entsprechende Tests gabt es ja schon mit einem SPOT Satelliten und Artemis. Hier konnten 50 Mbit/s zwischen zwei relativ kleinen Teleskopen übertragen werden, Im Vergleich zu Antennen sind derartige optische Terminals leichtgewichtiger. Dafür muss man sie genauer ausrichten. Da keine Wolken und keine Streuung in der Atmosphäre die Signalverbindung stört eignet sich optische Kommunikation systembedingt besser für die Kommunikation Satellit zu Satellit als Satellit zu Erde. Ich glaube eine Chance läge darin jeden Kommunikationssatelliten mit einem Terminal auszustatten, der dann jeweils einen Satelliten verfolgt. Mehrere Terminals machen die Ausrichtung problematisch, schließlich besteht jedes aus einem Teleskop, das eine gewisse Bewegungsfreiheit besitzt. Das wäre eine viel günstigere und einfachere Lösung als einen speziellen  Datenübertragungssatelliten zu starten. Wie bei normalen Telekommunikationskanälen könnte man diese Kanäle dann an Satellitenbetreiber vermieten.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99