Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 304: 30.11.2012 - 14.12.2012

30.11.2012: Zum wiederholten Male: Alternativen zur Ariane 6

Wer meinen Blog regelmäßig besucht, weiß, dass ich schon einiges zu dem Thema geschrieben habe. Über die Ariane 6 selbst weiß man noch wenig, aber in meinen Augen ist es unsinnig mit 4 Milliarden Euro eine neue Rakete zu entwickeln, die weniger kann als die alte. Wenn man Pech hat, steigen die Satellitenmassen wieder an, weil in einigen Jahren mit Angara A7, Langer Marsch 5 und Falcon Heavy auch andere Träger verfügbar sind für große Nutzlasten und die Rakete ist zu klein. Des weiteren wäre ich vorsichtig bei Preisprognosen, da lag man in Europa zweimal daneben (Ariane 1: kein Markt, Space Shuttle ist billiger, Ariane 5: wird 40% billiger als Ariane 4). Es könnte sich erweisen. dass die Ariane 6 nicht billiger als die Ariane 5 wird und dann hat man sie umsonst entwickelt. Vielmehr sollte man die Ariane 5 flexibilisieren. Hier mein Vorschlag:

Als erstes mal muss die ESC-B in der Weise optimiert werden, wie ich vor einigen Tagen vorgeschlagen habe. Dann alleine könnte die Nutzlast auf 13,5 bis 14 t anheben, wobei die Rakete schon zwei Satelliten der 6 bis 6,5 t Klasse transportieren, also die größten derzeit verfügbaren und man hätte noch Luft bei schwereren sie mit einem 4,5-6 t Satelliten zu kombinieren. Gegenüber meinem letzten Vorschlag wäre übrigens zu ergänzen, dass nachdem ja nun beschlossen wurde das Orion-Servicemodul aus dem ATV zu entwickeln, die ESC-B leichter werden kann, da nun die maximale strukturelle Belastung von 23 t (ATV Start) auf 16 t (Maximalnutzlast nach diesem Artikel) sinkt. Das macht zwar nur 50 kg aus, doch 50 kg mehr sind 50 kg mehr Nutzlast....

Zur Erklärung: Satellitenbauer legen diese so aus, dass es immer zwei Träger gibt, die sie starten können. Sonst ist man auf Gedeih und Verderb an einen Anbieter gebunden. Die nach Ariane 5 leistungsfähigsten Träger sind Zenit und Proton, beide mit 6-6,3 t Nutzlast. Daher sind heute die schwersten Satelliten so schwer und wenn es weitere Alternativen gibt, dann kann es gut sein, dass die Satelliten noch schwerer werden.

Mein Ansatz geht nun darin, die Nutzlast nochmals etwas anzuheben und gleichzeitig die Option zu haben, auch kleinere Nutzlasten zu starten. Da muss ich mich bei der ASI bedanken, die in der Hoffnung, dass man den Auftrag für eine zweite Generation von Ariane 5 Boostern bekommt, die Vega so ausgelegt hat, dass der Durchmesser der ersten Stufe den EPC entspricht und auch die Fabrik gleich für die Fertigung ausgelegt hat). Das Bedeutet, man kann zwei P85 antriebe anstatt den EAP einsetzen. Ihr hoher Startschub von je 1912 kN bei 95 t Gewicht reicht aus, dass die Ariane 5 trotzdem abheben kann. (Startschub 4784 kN bei 425,5 t Startmasse). Die Nutzlast der optimierten Version sinkt dann auf 9 t ab - oder 7 t wenn man die normale ESC-B nimmt, damit hat man schon mal den Ersatz mit der Ariane 6. Der Durchmesser von 3 m sorgt zudem dafür, das die kompatibel zur Startplattform der Ariane 5 sind.

Die zweite Option ist es, diese P85 Booster zusätzlich zur Ariane 5 einzusetzen. Auch hier reicht der Schub der EAP noch aus trotzdem abzuheben (13.000 kN Schub bei 982,4 t Gewicht). Der Trick ist es hier die Booster erst zu zünden wenn die EAP ausgebrannt sind. Dadurch wird eine zu starke aerodynamische Belastung im unteren Teil der Bahn vermeiden, die z.B. von der ESA bei CFK-EAP als negativ eingestuft wurde. Die Zeit in der Feststofftriebwerke arbeiten, verlängert sich so um 107 s. Zuerst werden die EAP abgetrennt, dann die P80. Als weiterer Vorteil sind keine Änderungen an der Startbasis nötig. Zusammen mit zwei P80 Boostern kommt man so auf 15.900 kg Nutzlast (13.900 wenn die ESC-B nicht optimiert wird).

In der Zusammenfassung hat man dann drei Konfigurationen mit 7, 11,5 und 13,9 t Nutzlast (ohne optimierte ESC-B) oder 9, 13,5 und 15,9 t Nutzlast (mit optimierter ESC-B). Das ist doch eine gute Abdeckung eines breiten Nutzlastbereichs von der anvisierten Ariane 6 bis über die derzeitige Ariane 5 hinaus. Und wenn man noch etwas kleineres braucht: Eine Vega, mit einem EAP als erste Stufe würde 5 t in den sonnensynchronen und 2 t in den GTO Orbit bringen und wäre so geeignet die Sojus für Erdbeobachtungsmissionen und kleine Satelliten zu ersetzen. Mit Vega- und Ariane-Elementen deckt man so den Nutzlastbereich von 1,5 t SSO bis 16 t GTO ab.

Wenn man etwas entwickeln will, (vergessen wir nicht: es geht immer auch darum was neues zu entwickeln, so waren alle Vorschläge des FLPP Programms aus dem die Ariane 6 entstehen sollte, welche mit neuen Technologien wie LOX/LNG Triebwerken, staged-combustion Triebwerken oder ähnliches einsetzten), dann wäre die sinnvollste Idee ein neues Haupttriebwerk. Das Vulcain 2 ist die teuerste Einzelkomponente. Ein billigeres und trotzdem schubstärkeres gibt mehr Optionen für die Bestückung mit Boostern und reduziert die Gravitationsverluste. Bei etwa 2750 kN Schub wäre die Rakete sogar fähig ohne Booster abzuheben. So schubstarke Triebwerke waren allerdings nicht vorgesehen. Immerhin die 1700 bis 2000 kN die auch geplant waren würden die Nutzlast auch um 700 bis 1000 kg anheben, wenn man auf einen Teil der Performance verzichtet, kann man ein Triebwerk mit etwas schlechterem Wirkungsgrad nehmen, dass dafür billiger in der Fertigung ist. Auch hier gibt es Vorbilder: Das RS-68 wurde bewusst nicht auf Leistung sondern Preis getrimmt.

Leider sieht es so aus, als würde die aktuelle Entwicklung aber eher für die Ariane 6 sprechen. Boeing hat Aufträge für "All electric" Satelliten erhalten. Sie setzen das um was der Autor seit Jahren predigt: Ionentriebwerke nicht nur zur Lagereglung sondern auch als Antrieb einzusetzen. Die basierend auf dem HS-.702 Bus erstellten Satelliten wiegen rund 2 t. Bisher gestartete Satelliten wogen zwischen 4,5 und 6,1 t oder zwischen 2,775 und 3,832 t im Orbit. Das bedeutet dass man rund ein Drittel der Startmasse einsparen kann. Wenn das weiter die Rundem acht (bisher sind nur 4 Satelliten bestellt, das sind bei 20-25 jährlich gestarteten Satelliten noch ein kleiner Bruchteil aller Starts) dann würde Ariane 6 dann auch die Nutzlast der Ariane 5 aufweisen, wenn sie diese "all electric" Satelliten transportiert. Die ESA reagiert natürlich wie gehabt: weil (wie auch üblich) die europäische Industrie geschlafen hat, legt sie ein Programm auf indem sie die Entwicklung mitfinanziert. Dabei testet man an der Uni Giessen seit Jahrzehnten an Ionentriebwerken, auf denen auch die kommerziellen Produkte von EADS basieren, man hätte nur mal das Konzept weiter entwickeln müssen....

Immerhin, so hat die ESA wieder ein Argument für die Wiederzündbarkeit der ESC-B, die sonst nur bei ATV-Missionen benötigt wird (und die sind ja nun weggefallen): Für derartige Satelliten ist anstatt der klassischen GTO Bahn eine mit einem höheren Apogäum günstiger, so kann man mit dem gleichen Geschwindigkeitsaufwand eine 7000 km hohe Kreisbahn erreichen. Diese liegt aber über dem inneren Strahlungsgürtel, der der intensivere der beiden ist. Dafür muss man die Stufe allerdings beim Erreichen des Apogäums nach 83 Minuten die Stufe erneut zünden.

1.12.2012: Marktbereinigung

Mir ist was aufgefallen, was wohl keine Besonderheit ist, aber doch irgendwie immer wieder vorkommt: Eine Form der Marktbereinigung. Nehmen wir mal die Heimcomputer/PC's. 1974 erfunden gab es bald eine enorme Zahl von Herstellern von Computern und Peripheriegeräten. Ich weiß, ja da etliche meiner Leser noch die achtziger Jahre miterlebt haben: was gab es da an Computern - nicht nur die großen Anbieter, bei Heimcomputer wohl Commodore, Armstrad und Sinclair zu nennen, sondern zahllose andere Texas Instruments, Spectravideo, Triumpf-Adler, Tandy Radio Shack und und und. Noch mehr Firmen gab es die Peripheriegeräte anboten, Schnittstellen, Floppys, Module etc. Nach und nach starben alle aus, und heute haben wir nur noch den "PC-Standard", selbst der Mac ist nur ein PC mit etwas anderem Betriebssystem (in der vorletzten ct wurde ein "Hackintosh" vorgestellt, ein Bausatz-PC mit Standardkomponenten der mit dem Mac-OS läuft). Das ganze kann man auch an anderen Stellen aufziehen: Von den zahlreichen Herstellern von Festplatten sind heute nur noch wenige übrig, bei den Druckerherstellern sind es noch ein paar mehr, doch wenn man das auf die Druckwerke reduziert, so sinkt die Anzahl der Hersteller drastisch.

Das es nur noch einen Standard gibt, der von vielen Produzenten genutzt wird ist sicher ein Extremfall, doch wir sehen das Phänomen auch bei anderen Märkten. Von den zahlreichen Automobilhgerstellern sind nur noch wenige große übrig. Großraumflugzeuge bauen heute nur noch Boeing und Airbus, früher gabs mal noch Lockheed, McDonnell-Douglas, Junkers etc... Auch bei den Luft und Raumfahrtfirmen aggregiert es sich. Was sind die Ursachen?

Nun das Konzerne fusionieren, das wird es immer geben, der größere frisst den kleineren oder manchmal erhoffen sich auch beide Konzerne Synergien und gehen zusammen ohne "feindliche" Übernahme, z.B. wenn der eine gut in den USA platziert ist und der andere in Europa.

Aber meine Theorie für das Phänomen der immer geringer werdenden Vielfalt ist eine andere und ich erläutere sie mal am Computer also den Heimcomputern. Wer mal seinen alten 8-Bit Rechner aufgeschraubt hat und sich die Platine angesehen, der stellt fest, dass wenn der Hersteller nicht die Funktionen in einem eigenen Chip zusammengefasst hat, der "PC" erstaunlich aufgebaut war. Es gab so um die 40 Chips, zum einen RAM-Chips, dann ROM mit dem Betriebssystem. Den Prozessor, Ein/Ausgabebausteine, Videoprozessor und "Soundchip". Der Großteil waren zahlreiche Bausteine der TTL-74xxx Serie, die Signale verstärkten oder einfache Gatter waren um die Adress-/Datenleitungen auf alle Bausteine zu verteilen, ohne dass sich alle gleichzeitig angesprochen fühlen, sondern abhängig von bestimmten Signalpegeln. Wollte man z.B. den ROM Chip in den obersten 16 KByte des Speichers ansprechen, dann musste ein Chip nur die "Enable" Leitung freischalten wenn die beiden obersten Adressleitungen gleichzeitig auf "1" waren. Das konnte man verstehen ohne Elektrotechnik studiert zu haben und als die ct' als eines ihrer ersten Projekte mal einen "Dr Osborne" vorstellte, einen Nachbau des Osborne PC's, da erklärte sie in wenigen Ausgaben recht gut die Funktion und Beschaltung der Platinen. Man konnte die Funktion der Computer wirklich noch verstehen und wir kennen ja auch Fälle wo sie von einem einzigen entworfen wurden (Apple II von Stephen Wozniak).

Verglichen mit heute waren die Benutzer äußerst wenig anspruchsvoll und nahmen Einschränkungen hin, ja betrachteten sie sogar als Herausforderungen. Wenn wir einen Begriff suchen, dann passt sicher am besten der des "Early Adaptors" - jemand der etwas weil es neu und unbekannt ist einfach kauft, ausprobiert und eine Verwendung findet (oder nicht) und nicht danach sucht, dass man eine fertige Lösung für jedes Spezialproblem hat.

Mit der Zeit entwickelt sich das Produkt weiter, es wird immer komplexer, wodurch auch die Investitionen für eine neue Generation ansteigen. Es sind nun nicht mehr wenige die es entwerfen, sondern eine ganze Mannschaft, und immer mehr Geld wird für ein neues Gerät benötigt. wer einmal aufs falsche Pferd setzte, oder zu wenig innovationsfreudig war, gerät rasch ins Hintertreffen und geht unter. Zuletzt wachsen die Marktführer schneller und für die kleineren Firmen wird es immer schwerer die Investitionen aufzubringen.

Wir sehen das überall, bei Autos, Fotoapparaten. Was leider auch damit einher geht ist, dass sich die Produkte immer ähnlicher werden. Auch das ist bei den genannten Produkten zu sehen. Was mir auch noch auffällt, ist der Bequemlichkeitsfaktor und das Gewöhnen daran. Das geht dann daran, dass ein Hantieren mit den "Grundfunktionen" nur noch etwas für Profis ist: Nur "Profis" arbeiten noch mit Kameras mit manueller Einstellung von Belichtungszeit und Blende. Der Hobbyknipser nutzt das Automatikprogramm. Bei Autos wird es bald so sein, dass Einparken ohne Einparkhilfe von vielen nicht mehr berhscht wird. Ich kenne Leute die können nur mit "Automatik" fahren und beim Fahrrad geht ja der Trend zum Pedelec - die Grundfunktion "in die Pedale treten" spielt da fast keine Rolle mehr....

Am extremsten ist es beim Computer. Ich habe ja schon lange vor mal als Jux meinen zweiten Rechner (CPC 464) in die Anfangsvorlesung zu bringen mit der Aufgabe "Der erste der innerhalb der Vorlesungsstunde auf diesem Rechner das kleine 1x1 Programmiert bekommt eine 1 in der Klausur". Ich glaube meine Studenten hätten schon Probleme mit einer IDE ohne Syntaxvervollständigung und ohne explizite Überprüfung mit Hinweisen und Warnungen. Ich wurde ja bei einer Besprechung schon drauf angesprochen, dass ich ein Skript für "Informatiker" mache, weil ich erst mal im ersten halben Semester die Grundlagen beibringe und dies bei Konsolenprogrammen. Da fehle das für Maschinenbauer so wichtige unmittelbare Erfolgserlebnis.

Wir sehens aber auch beim Computer. Nach Textoberfläche und grafischer Oberfläche muss man nun ja nicht einmal mehr tippen, sondern nur noch wischen. Die ganzen Pads und Tabletts verkaufen sich wie geschnitten Brot, dabei dienen sie ja eigentlich nur noch zum passiven Konsumieren. Schon eine Mail zu schreiben wird mit einer Bildschirmtastatur zur Qual. Mal sehen wir das weitergeht.

5.12.2012: Die Regatta

Mir kamen die beiden Gastbeiträge in den letzten Tagen nicht unrecht, zum einen weil ich wieder etwas bei meinem Kunden zu tun hatte, zum anderen auch weil ich seit Monaten mir irgendwie die Themen fehlen. Alles was mich interessiert habe ich schon irgendwann im Blog abgehandelt oder mich schon mehrfach über Missstände aufgeregt, wie bei der Ariane Entwicklung, der ISS, oder dem Umgang der Medien mit SpaceX. Ich habe versucht die Lücke zu füllen, indem ich Dinge die ich für die Website oder meine Bücher recherchiert habe auch im Blog publiziert habe. Doch mit den Büchern läuft es ja nun aus. Weil ich so wies aussieht ab Januar eh wenig Zeit habe (der größte Teil meiner DHBW Vorlesungen ist von Januar bis März und mein Kunde will auch ab dem Januar die bewilligten Mittel einsetzen, bevor sich da was ändert) an der Stelle nochmals der Aufruf zu Gastblogs, wie man sieht finden sich hier ja auch dankbare Leser und sie bereichern das Spektrum. Ansonsten werdet ihr euch dran gewöhnen müssen, dass es wenig hier zu lesen gibt, so habe ich den nächsten Blog erst für den 14.12 zu einem Jubiläum vorgesehen. Aber für heute ist mir noch einer eingefallen.

Es ist der eines Wettkampfs und zwar eines friedlichen. Die ESA bezahlt ja für die nächsten vier Vega Starts um sie in die kommerzielle Phase zu überführen, genauso wie das übrigens die NASA bei SpaceX macht, bevor da wieder jemand meckert. Warum nicht einen für einen Wettkampf zu nutzen. Die Idee: Es geht zum einen um das Erproben von Technologien und eben den Wettkampf. Ziel sollte es sein mit einem nicht-chemischen Antrieb eine Nutzlast zu einem bestimmten Punkt zu bringen. Als Beispiel könnte ein Zielplanet dienen (Merkur oder Jupiter wenns nicht zu einfach sein soll) oder sie auf Fluchtgeschwindigkeit aus dem Sonnensystem zu beschleunigen. Man kann das auch variieren, z.B. wer erreicht als erste eine bestimmte Distanz von der Erde (z.B. 10 AE) oder wer erreicht das Ziel mit der geringsten Relativgeschwindigkeit innerhalb eines vorgegebenen Zeitraums oder wer erreicht die höchste Geschwindigkeit in einem Jahr.

Dazu transportiert die Vega insgesamt 6 Nutzlasten (je eine von den großen Weltraumagenturen aus China, Japan, Indien, Russland, Europa und den USA)  in eine mindestens 500 km hohe polare Umlaufbahn. Von dort müssen sie dann sich selbst zum Ziel bewegen, man kann weitere Vorgaben machen wie das nur Sonnensegel benutzt werden dürfen (dann wäre es eine echte "Regatta, den man dann den "Solar Cup" nennen könnte) oder man könnte so Technologien vergleichen (was ist besser: Sonnensegel oder Ionentriebwerke?). Die Vega transportiert 1500 kg in eine 800 km hohe polare Umlaufbahn und 2400 kg in eine 200 km hohe äquatoriale. Die Nutzlast für einen Orbit in 600 km Höhe am Äquator müsste so bei etwa 2000 kg liegen. Das würde reichen für je 300 kg für jeden Satelliten. Wenn man sie nebeneinander packt dann könnte jede Nutzlast 60 cm breit und etwa 4 m hoch sein. Für den wissenschaftlichen Nutzen müsste jeder Kontrahent einen Satelliten mitführen, den entweder internationale Organisationen (AMSAT) oder Studenten / private Initiativen aus den Ländern bauen, die man so auch fördern kann.

So könnte man zum einen die Technologieentwicklung fördern. Wir wissen ja wie das inzwischen bei der Raumfahrt läuft: Firmen entwickeln nichts mehr selbst. Sie warten bis Raumfahrtagenturen ihnen die Aufträge erteilen sei es regulär oder als Crashprogramm wenn die Firmen zu lange geschlafen haben. Zum anderen wäre es natürlich öffentlichkeitswirksam. Der Mitteleinsatz wäre überschaubar und vielleicht springt auch wissenschaftlich was raus. Die Nutzlast könnte z.B. Instrumente zur Untersuchung des interstellaren Mediums beinhalten. Da die Öffentlichkeit ja nur Sensationen warnommt würde man so einige Male in den Nachrichten auftauchen, z.B. wenn die europäische Sonde vielleicht mal die Führung übernommen hat (okay, damit rechne ich nicht wirklich, aber es könnte ja sein, zumindest im Mittelfeld könnten wir uns platzieren).

7.12.2012:  AIDS und der Mars

Am Samstag kam auf einem der digitalen Spartenkanälen von ARD und ZDF eine Dokumentation über AIDS, genauer gesagt um den Umgang in der Politik bei uns in der Mitte der achtziger Jahre. Ich habe mich dabei auch an eines zurückerinnert, dass dort auch der Spiegel sehr stark an der Hysterieschraube drehte. Zufälligerweise hatte gerade zu diesem Zeitpunkt mein Vater den Spiegel abonniert und in einer richtigen Serie fasste er die Geschichte der "Seuche" bis dahin zusammen und ermittelte sogar einen "Patienten Nummer 1", einen homosexuellen Steward, der zumindest nach Spiegel durch seine Flüge in den USA viel mit zur Ausbreitung der Krankheit beigetragen hat. Das ganze war für Spiegelniveau äußert ungewöhnlich mit (heute würde mal das wohl als normal bezeichnen) mit fiktiven Dialogen oder fiktiven Beschreibungen wichtiger Szenen.

Glaubte man dem Spiegel, so würde sich das damals exponzielle Wachstum der Krankheit fortsetzen (was auch andere übernahmen) und so ungefähr im Jahr 2000 wäre jeder in der BRD infiziert, da damals die Infektionszahlen sich pro Jahr verdoppelten.

Wie wir wissen kam es nicht dazu. Die grundlegenden Fehler die gemacht wurden sind, dass man zwei grundlegende Dinge ignorierte: damals wie heute waren in der BRD die meisten HIV-positiven Homosexuelle. Damals waren es noch fast 90%, heute sind es immer noch 70%. Wenn jeder infiziert sein sollte, so musste man annehmen dass sich das Virus massiv über diesen Personenkreis ausgebreitet hat, was zwar nicht unwahrscheinlich ist, aber aufgrund der damals schon bekannten sexuellen Übertragung nicht mit derselben Geschwindigkeit erfolgt wie die Ausbreitung innerhalb dieser homogenen Gruppe. Vor allem ignorierte die Vorhersage, dass die Ausbreitung immer langsamer wird, weil es immer weniger Infizierte gibt und das es natürlich auch Gegenmaßnahmen geben könnte - heilen kann man HIV bis heute nicht aber die Infektion verhindern, was ja auch in dem Film deutlich wurde, da sich die Politik zu einer Aufklärungskampagne und gegen den bayrischen Kurs das Bundesseuchengesetz anzuwenden und die Infizierten zu isolieren entschied.

Das zeigt sich auch darin dass AIDS bei uns kein großes Thema mehr ist. Es gibt nach wie vor Neuinfektionen, aber verglichen mit denen in Afrika wo weitaus weniger Kondome als Schutz eingesetzt werden sind es doch relativ wenige.

Das zweite ist der Mars, der ja wieder in den Schlagzeilen war. von Curiosity wurden schon im Vorfeld sensationelle Ankündigungen für die Pressekonferenz am Montag gemacht. Doch man fand nichts weltbewegendes. "We have no definitive detection of Martian organics at this point, but we will keep looking in the diverse environments of Gale Crater,". Was man fand waren Chlormethan. Das entstand aus Chlor aus den Perchloraten und Methan, nur weiß man nicht ob das Methan vom Mars stammt, weil die Spur so klein war, dass es auch eine Verunreinigung von der Erde sein könnte. Schon vorher hatte man ja auf dem Mars Plastikstückchen entdeckt, die irgendwo vom Rover runtergefallen waren und wohl von irgendwelchen Kabelisolierungen der Decent Stage stammten.

Dafür hat die NASA eine neue Rovermission für 2020 bewilligt - in der Größe vom MSL, aber da man nicht mehr so viel neuentwickeln muss, etwas billiger für 1,5 Milliarden Dollar. Schon 2013 und 2018 folgen zwei Orbiter und 2016 will man sich bei Exomars beteiligen. Seit 1997 starteten die USA zehn Raumsonden zum Mars, mehr als eine im Durchschnitt pro Startfenster. Vergleicht man dass mit den anderen Planeten so fällt das eklatante Missverhältnis auf. Die letzte US-Mission zur Venus startete 1989. Das ist mehr als zwanzig Jahre her, dabei ist sie genauso einfach wie der Mars zu erreichen.

Nein Vorschlag: bei der nächsten Sitzung der astronomischen Union benennen wir erst den Jupiter in Mars um und dann im 5-Jahresabstand die anderen Planeten. Denn für den Mars kann man immer Geld locker machen....

Was gab es sonst noch? In der Blockpartei wurde Genossin Merkel mit 98% der Stimmen wiedergewählt. Honecker hätte sich über dieses Quotum gefreut, zumal Genossin Merkel ja Lehren aus seinem Sturz gezogen hat und alle innerparteilichen Hoffnungsträger (also Leute die auch was auf dem Kasten haben und vielleicht sogar ihre Nachfolge antreten können ) ausgebootet hat. Dafür fallen dann die gleichen unrealistischen Parolen wie damals in der DDR: "Die erfolgreichste Bundesregierung seit der Wende" und "Eine stolze Volkspartei wie die CDU läuft den Grünen nicht hinterher.”  Ja sicher. Bei uns ist die Volkspartei schon die Nummer 2 nach den Grünen und stellt seit Montag keinen OB mehr in einer Großstadt. Das hört sich verdammt nach den letzten Aussagen von Honecker zu der Bauer an. die seiner Meinung nach ewig stehen würde - ein Jahr später war sie weg....

14.12.2012: Fünfzig Jahre Planetenforschung mit Raumsonden

Heute vor genau fünfzig Jahren flog mit Mariner 2 die erste Raumsonde erfolgreich an einem Planeten vorbei. Sie läutete sozusagen die Erforschung der Planeten mit Raumsonden ein. Zeit zum Jubiläum das Projekt nochmals Revue passieren zu lassen.

Mariner 1+2 waren nicht die ersten Raumsonden. Schon 1960 starteten die Russen zwei Marssonden, die jedoch nicht mal einen Erdorbit erreichten. Es folgten im Februar 1961 Venera 1 und Sputnik 7, die Schwestersonde, die im Erdorbit strandete.

Ursprünglich hatten die USA einen längerfristigen Plan für die Erforschung von Erde und Mars. Die ersten beiden Sonden "Mariner A+B" sollten 1962 und 1964 gestartet werden - auf der Atlas Centaur Nummer 7 und 8. Nur zeigte sich 1961, dass dies illusorisch war. 1962 wäre die Atlas Centaur nie und nimmer flugqualifiziert (ihr Erstflug ist datiert auf den 27.11.1963, die Exemplare Nr. 7 und 8 starteten erst am 8.4 und 20.9.1966). Mariner A+B waren 1250 Pfund (567 kg) schwer. Sie waren damit zu schwer für jede verfügbare Trägerrakete der USA.

Der Start von Venera 1 veränderte die Situation. Venera 1 fiel zwar auf dem Weg zur Venus aus, doch war es den Sowjets als ersten gelungen eine Sonde zur Venus zu schicken und bestimmt würden sie beim nächsten Startfenster in 17 Monaten einen neuen Versuch unternehmen. Am 27.8.1961 schrieb das JPL an das NASA Hauptquartier einen Brief, indem es vorschlug beim nächsten Starfenster vom Juli bis September 1962 eine einfache Sonde, genannt "Mariner R" auf den weg zu bringen. Um sie mit der Atlas D Agena B zu starten, musste die Raumsonde erheblich leichter als Marinier A sein. Um dies zu erreichen und sie überhaupt in weniger als 11 Monaten starten zu können, wurde auf die schon entwickelten Ranger Block I Mondsonden zurückgegriffen und diese abgespeckt soweit es nur ging. Wo es ging, übernahm man Teile der Marinier A, Sonde, so deren Elektronik Trotzdem würde man nur 25 kg Instrumente mitführen können und man könnte nur einen Start garantieren (zwei wenn man das Startgewicht weiter reduzieren könnte, da dann das Startfenster länger war).

Später zeigte sich, dass die Atlas Agena B die Raumsonden ohne Probleme zur Venus senden konnte und es für die 460 Pfund schweren Sonden ein Startfenster von 56 Tagen zwischen dem 18.7. und 12.9.1962 gab, genügend Zeit um zwei Sonden zu starten. Was heute unmöglich wäre - man bracht es fertig die beiden Sonden innerhalb von 11 Monaten zu bauen und dabei auch das gesamte Genehmigungsverfahren zu durchlaufen (das alleine dauert heute Jahre). Am 15.1.1962 gab es einen "Freeze Change" - die letzten 6 Monate brauchte man um die Raumsonde zu bauen. Was die Raumsonde aufgrund der Gewichtsbeschränkungen allerdings nicht hatte war Redundanz. Auch das wäre heute keine Option mehr. Die Wahrscheinlichkeit, dass ein Defekt die Raumsonde lahmlegen konnte war enorm groß.

Als Mariner R-1 und 2 starteten (später wurde auch noch aus den Ersatzteilen eine Mariner R-3 gebaut, aber, die aber nie startete) wog sie wirklich nur noch 448,7 Pfund und transportierte mit 49,5 kg sogar mehr Instrumente als geplant (die 25 Pfund wurden später auf 40 angehoben). Es wurde viel improvisiert. So brauchte man als man mehr Strom benötigte, ein verlängertes Solarpanel. Man brachte auf einer Seite Solarzellen an, auf der anderen aber nur um Gewicht zu sparen eine Verlängerung aus einer Dacronfolie um die gleiche Fläche zu erhalten und damit die Symmetrie.

Am 25.7.1962 startete Mariner 1, doch schon nach 290 s war der Flug vorbei, als die Atlas wegen einer Kursabweichung gesprengt wurde. Mit verstärkten Sicherheitsüberprüfungen startete dann die Schwestersonde Mariner 2 am 4.8.1962. Der Zielpunkt für die Sonde war ein Punkt 12.412 km über der Oberfläche der Venus, um eine Kollision der nicht sterilisierten Sonden zu vermeiden. Nachdem man Mariner 2 einige Wochen lang verfolgt hatte konnte man durch die Auswertung der Funksignale die reale Bahn rekonstruieren und stellte fest, das Mariner 2 nur bis auf 347.000 km an die Venus herankommen würde. Das war kein Beinbruch, denn die Sonde war ausgelegt worden ihre Bahn zu verändern. Mit dem damaligen Stand der Technik wäre es unmöglich gewesen die Sonde gleich von Anfang an bis auf 12000 km an die Venus heranzuführen. Am 4.9.1962 begann das Mittkursmanöver. Mariner 2 zündete ihre Triebwerke und die neue Bahn führte nun bis auf 33,800 km an die Venus heran. Danach begann Stickstoff zu entweichen und wenn man ein neues Kurskorrekturmanöver ansetzen wollte, müsste man rasch handeln. Die Wissenschaftler wollten eine nähere Annäherung, manche bis auf 16000 km um mehr Zeit für die Messungen zu haben und sie in geringerem Abstand durchführen zu können. Doch die Missionsleistung wollte nichts mehr riskieren.

In der Folge gab es immer mehr Probleme. Zuerst verlor die Sonde ihre Orientierung, konnte sich aber selbst stabilisieren, dann fiel eines der beiden Solarpaneele aus, da die Sonde nun aber näher an der Sonde war, konnte dies aufgefangen werden. Wiederholt gab es Probleme mit der Elektronik, Telemetriekanäle fielen aus und schließlich zwei Tage vor der Begegnung auch der Sequenzer, der die Experimente steuern sollte, während sie die Venus untersuchen sollten. Während Teilchenexperimente auf dem ganzen Weg aktiv war, waren die beiden Experimente die die Venusoberfläche direkt untersuchen sollte nur über 45 Minuten rund um den nächsten Punkt aktiv und mussten nun von der Erde aus "blind" kommandiert werden. Eine Möglichkeit Daten zwischenzuspeichern hatte Mariner 2 nichts.

Die Sonde passierte die Venus, ein Magnetfeld wurde nicht festgestellt, eine Wolken-Schicht konnte mit dem Infrarotradiometer festgestellt werden, und die Oberflächentemperatur wurde aufgrund der Messdaten des Mikrowellenradiometers auf 425°C geschätzt. Dieser Wert war jedoch ungenau, denn das Radiometer hatte bei drei Messungen 400, 470 und 560°C ermittelt, wobei der niedrigste Wert auf der Tagseite gemessen wurde. Da von den Ausfallen auch dieses Instrument betroffen war (es erhitzte sich bis auf 58°C, weit über die vorgesehenen 35°C hinaus und nahe an den 65°C wo die maximale Betriebstemperatur lag) waren die Messdaten stark fehlerbehaftet. Die Russen glaubten nicht an diesen Wert, was sich an der Auslegung ihrer Landesonden zeigte die schwimmfähig waren, falls sie im Venus-Ozean landen sollten.

Drei Wochen nach der Passage, in 9 Millionen km Entfernung, von der Venus verstummte Mariner 2 für immer. Bei der NASA witzelte man, dass "JPL" für "Just Plenty of Luck" stehen würde, denn man hatte wirklich enorm viel Glück gehabt. Es gab zahlreiche Ausfälle die meist nicht auffangbar waren, weil es keine Redundanz gab, doch die Experimente hatten funktioniert. Und auch die Raumsonde hatte gerade eben ihre "vorgesehene" Lebensdauer erreicht: Geplant war ein Betrieb über mindestens 2500 Stunden, nach 3100 Stunden fiel sie aus.

Das JPL hatte damals nicht den tadellosen Ruf, den es heute hat, sondern musste viel Kritik hinnehmen, weil die Ranger Block I Geräte reihenweise ausfielen. Man warf ihm vor, die Geräte nicht ausführlich zu testen und an Raumsonden heranzugehen wie an Düsentriebwerke - man testet eines und wenn es Probleme gibt stellt man sie ab und testet ein neues. Bei rund 28 Millionen Dollar pro Start ein teures Versuch und Irrtum Spiel. Es lernte daraus, konstruierte nicht nur Ranger um sondern auch die Mariner 3+4 Missionen die für 1964 zum Mars vorgesehen waren.

Die Mariner 1+2 Mission kostete rund 48 Millionen Dollar. Davon 28 Millionen für die beiden Raumsonden, 17 Millionen für die Trägerraketen. Heute wären das 365 Millionen Dollar für zwei Raumsonden - relativ preiswert. Mehr über die Mission auf meiner eigenen Seite. Ich habe euch auch noch zwei Videos zu empfehlen: Dieses hier ist über die Mission von Mariner 2. Und da fand ich bei den verknüpften Links noch dieses. Es behandelt die erste erfolgreiche Bergung der Kapsel des "wissenschaftlichen" Satelliten Discoverer 13. Diese Kapsel wurde sogar dem Präsident Eisenhower präsentiert und das kam in den Nachrichten. So viel Chuzpe muss man erst mal haben: Aufgabe der "Discoverer" Satelliten wie sie offiziell hießen waren nicht "wissenschaftlicher" Natur, sondern sie sollten die Sowjetunion mit hochauflösendem Film ablichten (warum sonst sollte man Kapseln aus dem Weltraum bergen). Dem dümmsten wurde dies beim nächsten Film über Discoverer 14 klar, als die Wochenschau berichtete dass man die Kapsel im Flug auffing. Warum sollte man dies wohl machen?

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99