Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 59 : 30.3.2008-4.4.2008

Sonntag 30.3.2008: Der Nutzen der Raumfahrt - Teil 1

Gerade habe ich "Countdown" von John Heppenheimer durchgelesen, eine kurze Geschichte der Raumfahrt. Am Schluss zieht er einige Resümees. Eines ist, das die unbemannte Raumfahrt inzwischen Bedeutung für das tägliche Leben gewonnen hat, aber sie keiner bemerkt, weil es keine spektakulären Projekte sind und auch ein Start nicht übertragen wird. Gerade das umgekehrte gilt für die bemannte Raumfahrt: Sie ist weitgehend nutz frei für Otto Normalverbraucher, aber sie ist öffentlichkeitswirksam. Das inspiriert mich mal etwas zum Nutzend er Raumfahrt zu schreiben. Den gibt es durchaus:

Die ersten "Anwendungssatelliten" die gestartet wurden sind Wettersatelliten. Der Nutzen ist vielleicht für jeden nicht direkt zu sehen, doch er ist volkswirtschaftlich wichtig. Wettersatelliten liefern Daten über Temperatur, Wolkenverteilung aber auch Wasserdampfgehalt der ganzen Erde, je nach Bahn im 6Stunden oder 15 Minuten Rhythmus. Das hat es ermöglicht zum einen die Wettervorhersage zu verbessern, zum anderen die Vorsagezeit zu strecken. Die ersten Systeme die 1961 erschienen konnten mit einem Schlag nun die Meere abdecken von denen es bislang kaum Daten gab und die Vorhersagedauer bei gleicher Korrektheit von einem auf zwei Tage verdoppeln. Noch wichtiger: Die Zahl der Toten und Verletzten durch Unwetter ist seitdem in den Staaten drastisch gesunken die Satellitenbilder zur Warnung nutzen. Volkswirtschaftlich ermöglichen Wettervorsagen das rechtzeitige Einbringen von Ernten vor Regen, die bessere Vorbereitung vor stürmen und verringern so Schäden um ein vielfaches der Summe welche die Systeme kosten. Daher werden heute die Wettersatelliten auch nicht mehr von den Raumfahrtbehörden, sondern den Behörden betrieben welche für das Wetter zuständig ist. In Europa z.B. Eumetsat in den USA die NOAA.

Neuere Satelliten dieses Typs könnte man wohl besser als Umweltsatelliten bezeichnen. Sie verfolgen auch die Veränderungen von Spurengasen, messen Temperaturen noch genauer, wenngleich mit einem größeren Intervall. Sie können den Klimawandel zwar nicht verhindern. sie machen es Politikern aber deutlich schwerer sich herauszureden mit dem Argument, es gäbe keinen klimawandel.

Dazu kommen die Erderkundungssatelliten, die erst gut 10 Jahre nach den ersten Wettersatelliten erschienen. Ihre wesentliche Aufgabe ist es nicht die Erde zu kartieren, sondern in vielen Spektralkanälen Informationen über die Zusammensetzung und Veränderung der Erdoberfläche zu sammeln. Erderkundungssatelliten liefern Daten über verborgene Erdvorkommen in den USA, unterschiedliche Flüsse in der Sahara, Majabauten im Dschungel Mexikos und das deutsche Waldsterben. Eine Zeitlang glaubte man, sie wären auch kommerziell zu betreiben in dem Sinne, dass man durch den Bilderverkauf die Kosten einspielt, doch es gab dafür nicht den Markt.

Relativ neu sind Satelliten die detaillierte Aufnahmen der Erde machen, dies jedoch in schwarz-weiß oder nur wenigen Spektralkanälen. Derartige Systeme gibt es erst seit weniger Jahren. Allerdings sind auch sie von einer kommerziellen Erfolg weit weg. einige Systeme sind halbstaatlich, sprich es sind von Raumfahrtbehörden gestartete Systeme für ein Land und seine Bedürfnisse an Aufklärung und/oder Kartierung und die Bilder werden auch frei verkauft oder die von Unternehmen gebauten Satelliten haben einen guten Kunden, die US Behörde National Geospatial-Intelligence Agency.. Sie nimmt praktisch alle Bilder zuerst ab und gibt dann die zum Weiterverkauf frei, die nicht nationalen Sicherheitsinteressen widersprechen. (so gab es vor dem Afghanistan Krieg z.B. keine Bilder mehr von Afghanistan zu kaufen).

Das sollte für heute reichen. Das nächste Mal kümmere ich mich um weitere Satelliten die Nutzen für Jedermann haben. Heute war ja wieder die Umstellung auf die Sommerzeit. In den USA und Kanada war sie schon vor einem Monat - das ist doch eigentlich nur dazu geeignet Verwirrung zu stiften. Ich brauche jedesmal 1-2 Wochen um mich an die neue Zeit zu gewöhnen und ich bezweifele, dass es Energie spart. Ich denke zum einen hat inzwischen jeder Energisparlampen im Haus (Wenn noch nicht - dann fangen sie damit dann, die kosten, wenn man keine Markenbirnen kauft auch nur etwa 3 Euro und die Kosten für das Ersetzen aller Glühbirnen im Haus bis auf wenige Ausnahmen hatte ich nach einem Jahr wieder durch den geringeren Stromverbrauch drinnen). Zum andern haben wir heute viel mehr Energieverschwender im Haus, die jegliche Einsparungen durch die Sommerzeit ad absurdum führen, wie die ganzen Geräte mit Standby Schaltungen oder mit ineffizienten Steckernetzteilen, die auch Strom saugen wenn das Gerät aus ist.

Was meinen Sie - Sollte man nicht die Sommerzeit einfach wieder abschaffen? Sie ist ja gesetzlich bei uns geregelt - Vielleicht wird es deswegen ja nichts mit der Abschaffung, denn Gesetze werden bei uns ja schnell beschlossen, nur selten revidiert....

Mein Buch gibt es jetzt bei Amazon auch ohne Lieferzeit - Die Nachfrage hat wohl dazu geführt, dass sie einige Exemplare geordert haben. Insgesamt gibt es jetzt 29 georderte Exemplare, das ist viel mehr als ich erwartet habe, und ich hoffe das hält noch so an. Inzwischen hat es vielleicht auch der eine oder andere schon gelesen (es ist ja nicht soooo dick) und ich wäre über ein Echo dankbar (oder eine Kritik bei Amazon - ich selbst will nicht mein eigenes Buch besprechen).

Das Gemini Program. Technik und Geschichte

Ansonsten noch einen schönen, warmen Frühlingssonntag.

Montag 31.3.2008: Der Apollo Computer

Ich greife heute mal auf was P.G. auch schrieb, dass man das ganze Apollo Programm mit einem Computer durchführte, der in etwa die Leistung eines Taschenrechners hat. Abhängig davon von welchem Taschenrechner wir sprechen ist das korrekt. der Apollo Guidance Computer (AGC) der Landefähre (Lunar Module LM) hatte 72 KByte ROM und 8 KByte RAM, es war ein 16 Bit Computer mit einer Taktfrequenz von 1 MHz, d.h. er hatte in etwa die Leistung eines Commodore C-64 oder war nicht ganz so schnell wie der erste IBM PC.

Das erscheint wenig, doch wer vielleicht noch in den frühen achtzigern seine ersten Computererfahrungen machte, weiß, dass solche "kleinen" Rechner sehr viel können, wenn sie gut programmiert werden und noch heute tummeln sich in vielen Steuersystemen auch 8 oder 16 Bit Systeme mit ähnlicher Rechenleistung.

Doch nun der Schock für G.P: Man kann auf dem Mond auch ohne Computer landen! Der AGC bot der Besatzung Komfort, Sicherheit und entlastete sie, aber es gab unbemannte Mondsonden die ohne Computer landeten - sowohl die sowjetischen Lunasonden wie auch Surveyor taten dies. Die ersten Bordcomputer bei unbemannten Raumsonden gab es erst bei Viking, doch schon Mariner 6+7 hatten den Vorläufer des Programmierbaren Sequenzers. Surveyor musste ganz ohne programmierbaren Sequenzer auskommen, hatte jedoch einen einfachen Sequenzer an Bord.

Daher zuerst einmal eine Erklärung was ein Sequenzer ist. Jeder Satellit und jede Raumsonde hat einen Komamndodekoder der Kommandos von der Erde empfängt. Mit diesen Kommandos kann man die Sonde steuern. Das ist bei einfachen Kommandos einfach ein Ein/Aus Schalter z.B. für ein Heizelement an Bord. Komplexere Kommandos erfordern einen Parameter wie z.B. die Drehung um einen bestimmten Winkel. Dann wird z.B. über den Parameter der in Strom umgewandelt wird ein Motor hochgefahren der ein Reaktionsschwungrad antreibt. Das alles geht mit einfacher elektrischer Technik, auch wenn es einen ziemlichen Drahtverhau gibt und bei größeren Raumsonden die Kabellänge dann in die Kilometer geht.

Ein Sequenzer ist nun ein Speicher gekoppelt an eine Uhr für solche Kommandos. Die Kommandos werden sequentiell abgelegt und mit einem Zeitindex versehen. Ist der Zeitindex identisch mit der aktuellen Systemzeit wird das Kommando ausgeführt. Eine Reaktion auf äußere Einflüsse ist so nicht möglich aber selbst komplexe Messprogramme wenn man einem Planeten vorbeifliegt, ohne direkten Kontakt zur Erde.

Bei Surveyor gab es dazu noch ein Radar um den Abstand zum Boden zu messen. Es war der Trigger für die Kommandosequenz. Sobald das Radar einen abstand von 75 km zur Oberfläche feststellte wurde die komamndosequenz ausgelöst und der Feststoffantrieb gezündet. Er reduzierte die Geschwindigkeit von 2579 m/s auf 130 m/s. Danach wurde die Sonde durch regelbare Düsen abgebremst. Dazu steuerte man den Schub durch Rückkopplung der Geschwindigkeitsmessung (mit Hilfe des RADARS) - Ganz einfach: Hohe Geschwindigkeit - hoher Schub, niedrige Geschwindigkeit - niedriger Schub. Die Umsetzung war so erarbeitet worden, dass die Raumsonde noch mit 2.4 m/s landete. Das klappte auch ganz gut bis auf Surveyor 3, bei der bei der Landung der Antrieb weiter brannte und die so zwei ungeplante Sprünge machte.

Mit derselben Technik hätte man auch bemannt landen können, natürlich mit einem ziemlichen Risiko, denn so sieht man ja nicht wo man landet. Bei Apollo steuerte man daher schräg auf das Landegebiet zu, so dass die Astronauten es vorher sehen konnten. Der Computer bremste das LM ab und im Endanflug übernahmen die Astronauten die Steuerung wobei sie vom Computer assistiert wurden, der ihre Steuerbewegungen so umsetzte, dass die Flugbahn erhalten blieb. Schwenkte der Astronaut z.B.. das LM zur Seite um die landestelle besser sehen zu können, so wäre bei ungeregeltem Schub dieser in der Senkrechte abgefallen. Der AGC steuerte den Schub so, dass man nur in der Achse in der gesteuert wurde sich eine Änderung gab, die beiden anderen Raumachsen sich aber mit der gleichen rate veränderten wir vor der Steuerung.

Eigentlich ist vieles einfacher als man denkt, nur man kann es sich auch kompliziert denken oder man kann aus etwas ein Wunder oder eine Unmöglichkeit machen, wenn man es nicht versteht. Das erleben wir ja bei Moon Hoax oder 911 Verschwörungen. Doch finden wir im täglichen Leben genug andere Dinge. Wer kann sich z.B. vorstellen wie man bei dem technischen Stan des Mittelalters, in Unkenntnis jeder Statikberechnung so filigrane Bauwerke wie die gothischen Kathedralen bauen konnte? Wie schafften es die alten Ägypter die Pyramiden zu errichten und die Chinesen eine Mauer, die man sogar vom Weltall aus sehen kann? Das alles zeigt doch nur, dass die Menschen schon damals nicht dumm waren.

Dienstag 1.4.2008: Doppelt fit mit 64 Bit

In der aktuellen ct sind einige Artikel die sich damit beschäftigen, wie und was unter einem 64 Bit Vista oder Linux läuft. Zeit also sich dies mal genauer zu betrachten. Zuerst einmal: Was heißt überhaupt 64 Bit? Gemeint ist die Breite der Register des Prozessors. Der erste x86 Prozessor hatte 16 Bit breite Register, ab dem 386, der 1985 erschien, waren es 32 Bit und seit 4 Jahren gibt es nun 64 Bit.

Neue Befehle können nun 64 Bit breite Daten bearbeiten, doch darum geht es nicht, der Übergang bringt auch nur für wenige Anwendungen eine Geschwindigkeitssteigerung. Vielmehr geht es um die Adressierung. Diese ist unabhängig von der Registerbreite. Beim 8086 waren dies 20 Bit, wobei allerdings nur Segmente von 16 Bit Breite linear angesprochen werden konnten, beim 80286 waren es 24 Bit, wobei man allerdings in einen zweiten Modus wechseln musste, der inkompatibel zum DOS war. Daher setzte sich diese Lösung nicht durch. Seit dem 80386 sind es 32 Bit -  volle 4 Gigabyte Speicher. Seit dem Pentium II gibt es einen Modus bei dem man 36 Bit nutzen kann. Einige Windows Server Versionen setzen diesen ein. Doch er ist langsamer und viele Treiber haben Probleme in diesem Modus.

Nun sind also 64 Bit Prozessoren auf dem Markt und damit ist die Begrenzung des Arbeitsspeichers auf 4 Gigabyte (wobei unter Windows XP und 32 Bit Vista nur etwa 3 GB nutzbar sind). Allerdings wird es so bald kein 64 Bit Windows geben - denn die Prozessoren unterstützen derzeit nur 40 Bit breite Adressen. Das reicht immerhin für 1 Terabyte oder 256 mal mehr als heute möglich ist.

In der Vergangenheit hat sich im Durschnitt alle 3 Jahre der Speicher vervierfacht. 1982 hatte ein durchschnittlicher PC 64 KByte, und damit die 16 Bit ausgeschöpft, die ein 8 Bit Prozessor adressieren konnte. 1988 hatte ein PC schon 1 MByte, das war das Maximum eines 8086 Prozessors. 1995 waren es 16 MByte, das Maximum eines 80286 Prozessors.

Nun kann man sich 4 Gigabyte leisten, also das Maximum eines 80386 Prozessors oder seiner Nachfolger bis zum Athlon 64 oder Core Duo bei Intel. (Bei 64 Bit war AMD ausnahmsweise schneller und hier musste Intel die AMD Technik lizensieren). Nach den bisherigen Erfahrungen werden diese 40 Bit etwa 12 Jahre lang ausreichend sein. Bis dahin wird es dann sicher 48 Adressierung geben. (Für jede Adressen und Datenleitung die ein Prozessor heute hat kommen einige Versorgungs- und Masseleitungen, weshalb man die Anzahl der Adressleitungen natürlich begrenzt, wenn kein Bedarf dafür ist.

Doch wird es einmal 64 Bit Adressierung geben? Ich denke nicht. Heute ist Speicher in 65 nm Technologie gefertigt und es gehen bis zu 2 Gigabyte auf ein DIMM. 4 Dieser DIMMs erlauben heute einen Maximalausbau auf 8 GByte. Das sind 233 Bit. 264 Bit sind 31 Bits mehr, d.h. rund 2 Milliarden mal mehr Speicherzellen. Lässt man die Anzahl der DIMM Sockel und Chips gleich, so muss man die Speicherzelle um den Faktor 46000 kleiner machen. Die ersten Speicherchips auf dem Markt hatten 256 Bit Kapazität Heute sind es 1 Gigabit. Der Sprung von diesen betrug nur 22 Bit also weitaus weniger als die 31 Bit die man für eine 64 Bit Adressierung benötigt.  Deutlich wird dies vor allem an der Strukturgröße:

Heute sind die Strukturen 65 nm breit. Der Abstand zweiter Siliziumatome in einem Kristallgitter beträgt 0.222 nm. Anders ausgedrückt: Kommt man in den Bereich von 0.2 nm, also rund 130 mal kleineren Strukturen als heute, so speichert man eine Information in einem einzelnen Siliziumatom. Kleiner geht es nicht. Damit kann man aber nur maximal 254 Bits Adressieren - weniger als die 64 Bit Adressierung hergeben würde. In der Praxis wird es deutlich weniger sein. Man kann zumindest bei Silizium nicht ein Elektron in einem Atom speichern. Dann hätte man ein Ion. Man braucht einige Atome die das Elektron teilen. Daneben muss man eine Speicherzelle isolieren. Das geht mit Siliziumoxid, das aber auch erst ab einer Dicke von 2-3 Atomlagen isoliert. Praktisch wird eine Speicherzelle dadurch etwa 10 Atome breit sein sein. Das entspricht 2 nm Strukturbreite oder etwa 32 mal weniger als heute. Das sind dann pro Rechner etwa 244 Bits oder 16 Terabyte Speicher.

Man sollte sich so langsam mit dem Gedanken anfreunden, das die PC's nicht weiter wie bisher exponentiell in der Leistung wachsen. Schon heute sieht man dies in Teilbereichen. So ist die Taktfrequenz seit Jahren nicht angestiegen. Dual oder Quadcore Prozessoren von heute liegen heute unterhalb der 3.8 GHz welche ein Pentium 4 einmal erreichte. Die Taktfrequenz die heute maximal möglich ist, wurde schon 2003 erreicht. Festplatten verdoppeln sich auch nicht mehr so schnell in der Kapazität. Die 1 Terabyte Platte gibt es nun seit einem Jahr und seitdem keine größeren mehr. Für noch kleinere Strukturen als heute wird man in das Extrem UV gehen müssen, da die Strukturbreite von der Wellenlänge der Belichtungsquelle abhängt. (integrierte Schaltungen werden "gedruckt" und dabei kommen Masken zum Einsatz die belichtet werden). Das erfordert Vakuum, extrem glatte Spiegel anstatt Linsen und teure Systeme die Extrem UV Strahlen erzeugen. trotzdem ist diese Technologie nur für bis zu maximal 6-10 nm gut. Für 2 nm wird man Röntgenstrahlen brauchen, was nochmals die Kosten hochtreiben wird.

Wer braucht 1 Terabyte oder 16 Terabyte? Nun ich bin mir sicher, man wird diese Speichermenge füllen. Als DOS konzipiert wurde legte man den Maximalausbau auf 640 KByte fest .- 10 mal mehr als in den ersten IBM PC steckten, und von Gates gab es das Zitat "640K sind genug für jedermann". Windows 3.1 lief prima mit 4-8 MB Speicher und niemand hätte zu Windows 3.1 oder 95 Zeiten gedacht, dass man jemals 4 Gigabyte für Anwendungen brauchen könnte. Wenn man einfach nur mal anfängt den Trend vom "Semi-3D" Desktop von Vista fortzusetzen, kann man durch das hinzufügen einer räumlichen Dimension leicht Speicher en Masse beanspruchen oder man integriert anstatt der Hilfe zu allem einen schönen HD Video Film, wie man etwas macht, auch damit kann man locker Festplatten und Speicher zumüllen.

Voll bekommt man den Speicher immer. Der derzeit größte Supercomputer in der November 2007 Liste von Top500 hat 73728 GByte Hauptspeicher - 73 Terabyte oder etwas mehr als 246 Byte....

Donnerstag 30.3.2008: Der Nutzen der Raumfahrt - Teil 2

Kommen wir nun zum zweiten und letzten Teil über den Nutzen der Raumfahrt im Alltag. Was jedem wohl sofort einfällt sind Kommunikationssatelliten. Und in der Tat waren Kommunikationssatelliten die ersten privat finanzierten Satelliten. Alles begann schon 1958 mit dem Experiment SCORE - Ein Testflug einer Atlas C würde diese ohne Sprengkopf in einen Orbit bringen. Man nutzte diese Gelegenheit um ein Experiment zu installieren. Ein Bandgerät welches eine Botschaft von Präsident Eisenhower auf Kommando abschickte. Dem folgte eine Zeit in der man die möglichen Technologien erforschte. Die NASA startete Echo 1 und Echo 2. Diese beiden Satelliten waren völlig passiv: Dünne Metallhüllen die auf 30 bzw. 49 m Größe durch eine Druckgaspatrone aufgeblasen wurden. Doch Echo 1 und 2 verloren nicht nur rasch an Höhe durch den enorm großen Luftwiderstand. Das unverstärkte Signal war auch sehr schwach. Durch Mikrometeoriten verloren sie zudem bald die Form.

Sehr bald folgten dem aktiv sendende Satelliten. Schon 1962 starteten AT&T den ersten privat finanzierten Satelliten. AT&T zahlte der NASA 3 Millionen Dollar für den Start mit einer Thor Rakete. Telstar hatte eine elliptische Umlaufbahn die in bis zu 5600 km von der Erde weit weg brachte. Das erlaubte nur kurze Übertragungen von 10-20 Minuten Dauer. Trotzdem erlaubte Telestar die erste Transatlantik TV Übertragung, den damals konnten die Unterseekabel nur eine begrenzte Anzahl von Telefonkanälen übertragen, aber nicht einen ganzen Fernsehkanal.

Schon ein Jahr später gab es die ersten Versuche den geostationären Orbit. Der erste Syncom Satellit erreichte keinen Orbit, der zweite gelangte in einen 33 Grad geneigten Orbit, wodurch er am Himmel eine langsame "8" beschrieb. Doch selbst diese kleinen Satelliten (Die Nutzlast war im geostationären Orbit 4 mal kleiner als in Telstars Orbit) revolutionierten das Fernmeldewesen. Syncom hatte 240 Telefonkanäle oder alternativ einen Fernsehkanal. Das war erheblich mehr als zur selben Zeit in Form von Unterwasserkabeln verlegt war.

So kam es recht bald zur Gründung von Intelsat als internationale Organisation mit starker US Beteiligung. Sie sollte Satelliten starten und Verdienste durch die Vermietung von Kanälen einfahren. Neben der Verbilligung von Telefongesprächen gab es erstmals die Möglichkeit der Life Übertragung. Dies revolutionierte in vielen Bereichen den Alltag. Ohne Life Übertragung vom Vietnamkrieg wären die Proteste sicher geringer gewesen. Signale die über Satelliten gesendet wurden stellten Diktaturen und ihre Untaten bloß. Nicht umsonst versucht China daher jegliche Berichterstattung aus Tibet zu unterbinden. Erstaunlicherweise war der erste Einsatz von Life Berichterstattung gar nicht so gewünscht. Syncom 3 sollte 1964 die Daten der olympischen Sommerspiele von Tokio in die USA übertragen. NBC, welche die Übertragungsrechte hatte, wollte dies aber gar nicht. Sie hatten einen Vertrag mit einem Sponsor abgeschlossen und ließen Magnetbandkassetten einfliegen. Auf Druck der NASA erklärten sie sich bereit pro Tag eine halbe Stunde life zu übertragen - um 4 Uhr morgens....

Die siebziger Jahre sahen dann die ersten regionalen Systeme. Comsat in den USA, gefolgt von Anik in Kanada. Diese waren kein Problem. Solange der Betreiber eine US Firma war oder der Satellit keine Konkurrenz zu INTELSAT war. Anik deckte nur den schwach bevölkerten Norden von Kanada ab und hatte keinerlei Ambitionen Telefongespräche zwischen Kanada und anderen Ländern zu übertragen. Doch Europa war ein anderer Fall. Hier wollte die NASA keine Satelliten starten, die kommerziell genutzt wurden. Dies führte letztendlich zur Entwicklung der Ariane.

Heute haben Satelliten an Bedeutung verloren wenn es darum geht Daten und Telefongespräche zu übertragen. Das erledigen heute billiger Unterseekabel. Ihre Stärke liegt immer noch darin dünn besiedelte Gebiete zu versorgen oder Fernsehprogramme zu broadcasten.

Doch es gab auch einige Pleiten. In den neunzigern und dem aufkommenden Handyboom meinten zwei Konsortien, dass sich viele Kunden finden, die gerne weltweit mit Handys telefonieren würden. Jenseits von Ländern in denen es eine gute Infrastruktur gibt. Doch zum einen überschätzte man die Anzahl der möglichen Kunden und zum andern gab es als das System stand Handys die in mehreren Bändern arbeiteten, damit kam man in mehr Ländern in ein Netz. Damit man mit einem Handy über einen Satelliten telefonieren kann, muss er nahe der Erde sein. Daher brauchten Globalstar und Iridium sehr viele Satelliten und es wurde ein kostspieliges System - zu kostspielig für die Kunden.

die bislang letzte Anwendung der Raumfahrt im Alltag ist das GPS System. Entwickelt seit Ende der siebziger Jahre erlaubt es durch den vergleich von Zeitsignalen mehrerer Satelliten den Ort auf der Erde mit hoher Genauigkeit zu bestimmen. Inzwischen sind Navigationsgeräte die GPS nutzen für jeden erschwinglich geworden und das militärisch genutzte System strahlt nun seine Signale nicht mehr künstlich verschlechtert für zivile Nutzer aus. Europa meint, das ein eigenes System mit noch höherer Ortungsgenauigkeit sich selbst finanzieren könnte. Die Zukunft wird zeigen ob dem der Fall ist.

Kommen wir zurück zu Heppenheimers Resümee: Das unbemannte Raumfahrt unspektakulär ist, aber unser leben verändert hat. Das hat sie sicher. Ohne unbemannte Raumfahrt gäbe es kein Google Earth, kein Satellitenfernsehen, keine Navigationsgeräte. Keine präzise Wettervorhersage und wahrscheinlich würde man sich immer noch streiten ob es einen Treibhauseffekt gibt. aber sie ist nicht unbedingt weniger spektakulär. Sicherlich nimmt die Öffentlichkeit von den meisten unbemannten Projekten keine Notiz, doch zumindest Raumsonden schaffen es ab und an in die Prime Time. Wenn ich nur mal zusammenzähle wie oft ich eine Nachricht von Mars Express und seinen Entdeckungen im Fernsehen gesehen habe und das mit der typischen Berichtung für einen Flug zur ISS vergleiche und dann die kosten abwäge, dann schneidet Mars Express gar nicht so schlecht ab. Es gilt das gleiche wie in anderen Bereichen: Rede darüber oder Klappern gehört zum Handwerk. Die NASA ist ein Meister darin recht teure bemannte Missionen optimal öffentlichkeitswirksam zu präsentieren und das gleich sollte man nur bei den vielen unbemannten Projekten auch tun.

Freitag 4.4.2008: Nun können die Astronauten an Bord der ISS kommen....

... und zwar dank des ATV. Gestern koppelte es erfolgreich an die ISS an, was sogar der Tagesschau einen Beitrag wert war. Vieles was dort gesagt wurde war richtig: Das das ATV das bislang leistungsfähigste Gefährt seiner Art ist und Europa damit ein wichtiger Partner in der ISS.

Ja man kann es sogar deutlicher formulieren. Die ISS wäre ohne das ATV nicht lebensfähig. Das zeigt folgende Tabelle. Sie zeigt die noch geplanten Flüge von Transportmaterial zur ISS. 

  ATV HTV Progress Space Shuttle  
Startmasse: 20750 kg 16500 kg   105000 kg  
Fracht im Druckmodul 1500-5500 kg 4500 kg 1800 kg 4700 kg  
Fracht ohne Druckausgleich 0-940 kg 1500 kg 420 kg    
Treibstoffe für die ISS 0-4700 kg   1700 kg    
Reboost Kapazität 0-4700 kg   220 kg 11300 kg  
Fracht gesamt 12367 kg 6000 kg 2537 kg 16000 kg  
Startkosten 350 Mill. €     550 Mill. $  
Flugrate: 5 7 29 0  

Zur Erklärung: Bei allen Transportsystemen ist die Aufteilung der Fracht weitgehend variabel. Es gibt jedoch eine maximale Masse die transportiert werden kann. So kann das ATV bis zu 7667 kg Fracht transportieren (typisch 6 t) und mit dem Treibstoff zum Anheben der Station maximal 12.3 t zur ISS. Das Space Shuttle kann im MPLM maximal 4.7 t Fracht transportieren  Der große Laderaum nützt für den Frachttransport nichts. Aber das Shuttle kann die Station anheben. Es ist dafür aber nicht besonders gut geeignet, weil es selbst 105 t wiegt und so 1/4 des Treibstoff verloren gehen weil ISS und Space Shuttle so um 105 t schwerer sind und das Shuttle mehr Treibstoff zur Landung braucht.

Die Basis für diese Vereinbarungen sind internationale Abkommen. Als man die ISS 1995 konzipierte legte man einen Schlüssel fest: Jeder Partner beteiligt sich an der ISS mit Hardware und bekommt im Gegenzug Forschungskapazität und Gelegenheiten Astronauten zur ISS zu schicken. Weiterhin hat er sich entsprechend bei den Betriebskosten zu beteiligen. Europa hat an der ISS einen Anteil von 8.3 %. Das ist weniger als Japan (12 %). Entsprechend ist die Beteiligung an Hardware auch geringer. Es ist Columbus als Forschungsmodul und dazu kommt noch das Kopplungsmodul Harmony (Node 2), die Beobachtungsplattform Cupola und verschiedenes Equipment wie ein Roboterarm für das russische Modul und die Computerausrüstung für eines der russischen Module. Italien ist national noch über die 3 MPLM Module für den Space Shuttle Leonardo, Raffaelo und Donatello beteiligt.

Das gleiche gilt für den Transport von Fracht. Mit dem ATV bezahlt Europa seinen Anteil an den Betriebskosten. Und da fällt mir etwas auf. Die Zahlen oben geben die NASA Planungen für die ISS bis 2014 vor. In dieser Zeit sollen folgende Frachtteile transportiert werden:

Das korrespondiert nicht besonders mit der Beteiligung an der Station. (Die USA haben natürlich einen Sonderstatus, denn z.B. kommen sie alleine für die Kosten für die Datenübertragung auf) Japan hat eine 50 % höhere Beteiligung als die ESA und transportiert nur 2/3 der Fracht. Die Verteilung der Ressourcen und damit der Kosten beträgt:

Partner Anteil
NASDA 76.5 %
JAXA 12.8 %
ESA 8.3 %
CSA 2.3 %

Russland ist in der Tabelle nicht enthalten. Ursprünglich sollte Russland einen großen Anteil an der Station haben, doch dies hat sich geändert. erst kauften die USA Sarja als erstes Modul, dann finanzierten sie weitgehend das zweite Modul Sewsda und zuletzt bezahlten sie noch für die Sojus und Progressflüge. Zwei eigene Module von Russland wurden dagegen gestrichen. Der finanzielle Aufwand Russlands dürfte daher heute kleiner als der der ESA sein.

In jedem Falle transportieren wir 50 % mehr als Japan bei einer 50 % geringeren Beteiligung. Man kann aufgrund der bekannten Kosten für einen ATV Start von 345 Millionen Euro sogar die Gesamtstationskosten zurückberechnen: Sie müssen dann bei etwa 4500 Millionen Dollar liegen - leider deckt sich das nicht mit dem was die NASA in ihrem Haushaltsentwurf stehen hat. Demnach bringt Europa 2-3 mal mehr ein als es sollte, bei Japan liegt der Anteil dagegen im Soll. Die Frage ist nun: Bezahlt die NASA die ATV Flüge? Denn ohne sie geht es nicht. Das ATV transportier 35 % der Nutzlast der Station (es könnte sogar noch mehr sein - Die ESA hat ursprünglich 9 Ariane 5 dafür geordert, dich die Verzögerung beim Bau der ISS und das beschlossene Ende 2016/7 hat dazu geführt, dass nun nur noch von 5 Flügen die Rede ist.

Aber ohne die Flüge kann man eine 6 Mann Besatzung nicht aufrecht erhalten. Ich hoffe aber, dass die ESA nun nachbehandelt hinsichtlich der Ressourcenverteilung.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99