Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 476: 26.9.2016 - 11.10.2016

26.9.2016: Die Sache mit der Suche nach außerirdischem Leben im Sonnensystem

Eines der Dauerbrennerthemen bei Sendungen über Astronomie ist es, wo es noch Leben geben könnte. Man kann ja viel spekulieren über fremde Planeten, doch am meisten wird natürlich über Leben in unserem Sonnensystem spekuliert. Die NASA nährt das sehr gut, vor allem beim Mars. Auch wenn sie von "Der Suche nach dem Leben" auf "Spur des Wassers" als Motto umgeschaltet hat, kommt doch immer ein Hinweis darauf, dass Wasser eine Grundvoraussetzung für Leben ist. Daneben gibt es auch noch Postulate über Leben auf dem Mond Europa, manchmal auch auf Enceladus und Titan aber auch Jupiter und die Venus tauchen immer wieder auf. Bei manchen Sendungen ist es ganz einfach: Man braucht nur flüssiges Wasser, eine Energiequelle und einfache organische Verbindungen und es bildet sich von alleine Leben. So ist zumindest as Resümee in vielen Wissenschaftssendungen, die sich mit dem Planetensystem oder Alien oder ähnlichem beschäftigen. Um meine Meinung dazu geht es in diesem Beitrag.

Kommen wir zuerst einmal auf einen Punkt: Wie kommt man zu dieser optimistischen Einstellung? Wann immer in der Vergangenheit man annahm oder postulierte, die Erde oder die Menschheit wäre etwas Besonderes, dann lag man falsch. Das gab früher große Auseinandersetzungen, auch weil viele dieser Ansichten religiös motiviert waren. So lag man falsch, als man annahm, dass die Erde in der Mitte des Sonnensystems liegt. Kopernikus brachte ein zweites Modell ins Spiel, das sich als richtig erwies. Dann brachte Darwin die Vorstellung ins Wanken, dass der Mensch die Krönung der Schöpfung sei. Wir sind nur eine von vielen Arten, wenn auch vielleicht die intelligenteste. In der Astronomie entdeckte man noch später, dass Wir uns weder in der Mitte der Milchstraße befinden, noch das unsere Milchstraße, was Besonderes ist, sondern die meisten Nebel, die man mit dem Teleskop am Himmel sieht, sind auch Galaxien sind. Selbst unsere Sonne ist weder besonders groß noch besonders klein, auch wenn sie nicht zur häufigsten Klasse der roten Zwergsterne gehört die die meisten Sterne stellen.

Heute ist die Vorstellung daher genau umgekehrt: man nimmt an das unser Planetensystem typisch ist und dass auch die Entstehung von Leben so eine typische Sache ist, die ein Planet hervorbringt, wenn er in der richtigen Entfernung vom Stern ist und aus Gestein besteht. So entdeckte man 1995 die ersten Exoplaneten. Die waren zuerst ziemlich groß, bewegten sich auf exzentrischen Bahnen oder nahe der Sonne. Sie waren also völlig anders als die Planeten, die wir kennen. Doch die Forscher waren sich sicher. Man wird auch erdähnliche Planeten finden. Es war nur eine Frage der Messtechnik, die immer besser wurde. Die Exoten konnte man nur zuerst entdecken, weil sie starke Effekte auf ihre Sonne hatten. Heute kann man auch den kleineren Effekt eines erdgroßen Planeten nachweisen und nun hat man im August bei Proxima Centauri einen Planeten gefunden, der etwas größer als die Erde ist und sich in einer habitablen Zone befindet. Bisher war man mit der Annahme also erfolgreich. So ist heute auch die Vorstellung für die Entstehung von Leben. Heute nimmt man an, dass wenn die Startbedingungen geeignet sind, automatisch Leben entsteht.

Dafür gibt es zwei wesentliche Argumente. Das Erste ist das Miller-Experiment. In den Fünfziger Jahren hat Stanley Miller ein Experiment durchgeführt. Er brachte in einen Kolben Wasser und Gase hinein, die er für die Bestandteile der Uratmosphäre hielt, und setzte das elektrischen Entladungen aus und kochte es. Die kondensierte Flüssigkeit wurde wieder zurückgeleitet. Nach zwei Wochen beendete er das Experiment und analysierte den Inhalt. Der größte Teil war Teer oder komplexe aromatische/aliphatische Verbindungen, die aus Methan entstanden. Darunter waren aber vier Aminosäuren und die Fettsäure Propionsäure. So entstehen also zumindest in diesem Experiment von allein einfache organische Moleküle, die man auch in Organismen findet. Das Experiment wurde wiederholt, modifiziert, indem man andere Ausgangsstoffe nahm oder die Energiequelle wechselte und man kam so noch auf weitere Biomoleküle.

Der zweite Umstand ist, dass die ältesten Lebensspuren, die man mit Sicherheit bestimmt hat, 3,5 Milliarden Jahre alt sind. 3,8 Milliarden alte Spuren von Kohlenstoff scheinen von Organismen zu stammen und nun hat man schon in 4,1 Milliarden Jahren alten Zirkonen ein auffälliges Kohlenstoff-13 zu 12-Verhältnis gefunden was eine Spur von Leben sein kann. Die beiden letzten Beweise sind aber indirekt. Auf der anderen Seite gibt es auch nur wenig Gestein aus dem frühen Präkambrium das erhalten bleib. Beides zusammen – die Bildung von organischen Molekülen aus der Uratmosphäre und das frühe Auftreten von Lebensspuren führt dazu, dass man heute der Ansicht ist Leben entsteht fast automatisch bei geeigneten Startbedingungen.

Ich möchte diese Suppe aber ein bisschen versalzen. Wenn Leben so zwangsläufig entsteht, dann müsste es damals sehr oft entstanden sein, also an verschiedenen Stellen auf der Erde. Selbst wenn ich annehme, das bestimmte Dinge gemeinsam sind, z.B. Fett genutzt wird, um eine Doppelmembranhülle zu bilden oder Aminosäuren die wichtigsten Biomoleküle bilden, da sie die größte Variation an Strukturen ermöglichen, dann ist doch seltsam, dass in allen Zellen die es heute gibt, egal ob Viren, Archaebakterien, Pflanzen oder dem Menschen die gleichen Aminosäuren und Fette verwendet werden. Das ermöglicht uns auch alle anderen Organismen zu verdauen, außer die haben später noch was Neues erfunden wie Pilze oder Insekten weitere Gerüstsubstanzen wie Chitin, die für uns unverdaulich sind. Aser selbst die Archaebakterien, die wegen ihrer Anpassung an extreme Bedingungen wie sie auch damals herrschten, als urtümlich gelten, haben die gleichen Aminosäuren wie wir und mehr noch der genetische Code ist gleich. Daher können wir ein Gen aus dem Menschen in Bakterien verpflanzen und die produzieren dann Humaninsulin.

Das Leben nutzte von sehr vielen möglichen Aminosäuren, Fettsäuren oder Zuckermolekülen nur wenige. Es sind z.B. selbst wenn man die Kohlenstoffanzahl auf 7-8 beschränkt, enorm viele Aminosäuren denkbar. Es gibt 16-verschiedene Zucker mit 6 Kohlenstoffatomen und einer Aldehydbindung, doch in der Natur werden nur zwei häufig verwendet. Vor allem ist das Leben sehr selektiv, was die Stereochemie betrifft. Zucker und Aminsäuren haben mit wenigen Ausnahmen Stereoisomere. Das sind Moleküle mit identischer Struktur aber unterschiedlicher räumlicher Ausrichtung. Chemisch unterscheiden sich Stereoisomere nicht, sie entstehen auch beim Miller Experiment in gleichen Mengen, doch heute können wir nur L-Aminosäuren verdauen. Wir bilden auch nur L-Aminosäuren und viele Stereoverbindungen von Biomolekülen, die die „falsche“ räumliche Ausrichtung haben, sind unwirksam, unverdaulich oder sogar giftig. Das gilt für viele Moleküle, auch Zucker und Vitamine. Wenn aber die anderen Verbindungen in der Uratmosphäre entstanden, wo sind sie geblieben? Warum sind sie heute unverdaulich oder giftig? Selbst wenn man den Standpunkt einnimmt, man hätte sie mal verdaut und später sich auf einen Syntheseweg beschränkt, so müssten wir heute ja noch die Fähigkeit haben, die anderen Verbindungen wie D-Aminosäuren abzubauen. Zahlreiche andere Abbauwege, die wir von Bakterien übernommen haben, wie der Abbau von Zucker zu Milchsäure, sind ja immer noch aktiv.

Nun gibt es zwei Auswege aus dem Dilemma. Das eine ist das Leben, nachdem es entstand, sich so schnell durchsetzte, das kein anderes mehr entstehen konnte, es verzehrte praktisch die Nahrungsgrundlage oder vielleicht sogar die anderen Zellen. Das bringt aber ein anderes Problem mit sich. Nachdem die Erde abkühlte, erstarrte das Gestein und wurde weniger stark ausgelaugt, auch vulkanische Gase, aus denen sich Nachschub an Biomolekülen bildete, wurden weniger ausgestoßen. Der Mond rückte weiter von der Erde weg und sein Gezeiteneffekt, der alles schön durchmischte und viele Stoffe aus der Erdoberfläche auswusch, nahm schnell ab. Damit auch der Nachschub an organischen und anorganischen Substanzen als Nahrung für das Leben. Die Photosynthese als Voraussetzung, dass das Leben unabhängig von oxidierbaren Substanzen wurde, wurde erst 1 Milliarde Jahre später erfunden. Wovon hat sich das Leben in der Milliarde Jahren dann ernährt, wenn es anfangs sich so schnell bildete und ausbreitete, dass es die Verhinderung anderer Zellen auf anderer chemischer Basis verhinderte?

Zudem sehen wir ja gerade an den Archaebakterien aber auch anderen „lebenden Fossilien“, das viele Arten in Nischen überleben können, wenn sonst ihre Umgebung für sie lebensfeindlich ist. Archaebakterien sterben bei Umgebungsbedingungen, die wir schön finden, ab. Sie brauchen zum Überleben je nach Art hohe Temperaturen, Säuren oder für uns giftige Substanzen. Es fällt schwer zu glauben, dass es damals nicht auch abgeschottete Nischen gab wie Binnenmeere. Noch heute leben Archaebakterien z.B. um die schwarzen Raucher und bilden dort ein eigenes Ökosystem.

Sehr offen ist aber vor allem der Sprung von Miller-Experiment zur einfachen Zelle. Im Miller Experiment entstanden nur einfache Moleküle, schon keine komplexeren Moleküle. Selbst die einfachsten Stoffwechselkreisläufe erfordern aber einige Enzyme, die aus vielen Aminosäuren bestehen. Enzyme nutzen wiederum nichts, wenn man sie nicht neu bilden kann. Man braucht also noch einen Mechanismus zur Vererbung und eine Zelle muss von der Umgehung isoliert sein damit die Substrate, die man umsetzen, will nicht wegschwimmen, trotzdem muss die Hülle selektiv durchlässig sein. Selbst die einfachsten Bakterien haben eine so hohe Komplexität, dass dies nicht einfach so aus dem Nichts entstehen kann. Selbst die einfachsten Stoffwechselvorgänge brauchen zwei bis drei Enzyme, die verbunden sind, da meist ein Energie kostender Schritt mit einem Energieliefernden verknüpft ist (die Moleküle müssen erst aktiviert werden). Die gämgigen Coenzyme zur Aufnahme von Energie wie ATP (Adenosintriphosphat) und NADH (Nikotinamiddinukleotid) sind schon relativ komplexe Biomoleküle aus mindestens drei Einzelmolekülen.

Viren, die noch einfacher sind, werden nicht las Lebensvorläufer angesehen, sondern extrem einfache Organismen die andere Organismen nutzen, um sich zu vermehren. Ohne eigenen Replikationsapparat können sie aber nicht vor dem Leben entstanden sein. Ganz realistisch ist das Miller-Experiment übrigens nicht. Denn es führte die Substanzen immer wieder zurück. Im Urmeer hätten sie sich dagegen verteilt. So sind schon die Chancen für die Entstehung von Molekülen mit mehr als einem C-Atom minimal.

Der zweite Punkt ist der folgende: das Leben entstand ja nach gängiger Theorie recht schnell. Doch danach ruhte es sich erst mal aus. Das Leben brauchte dann weitere 800 Millionen Jahre für die „Erfindung“ der Photosynthese auf Basis von Schwefelwasserstoff, weitere 300-600 Millionen Jahre für die moderne Photosynthese, die Wasser als Elektronenakzeptor nimmt. Das ist immerhin ein neuer Stoffwechselkreislauf. Aber nur die Bildung eines Zellkerns, in dem die Vermehrung stattfindet, anstatt wie bei Bakterien im Zellplasma verteilt dauerte weitere 1,5 Milliarden Jahre. In etwa auf dieselbe Zeitdauer taxiert man die Aufnahme von Mitochondrien und Chloroplasten als Zellorganellen, die zuvor eigenständige Zellen waren. Primitive Zellen, die sich aber immerhin vermehren konnten und Gärungen durchführen, bildeten sich also ganz schnell. Doch danach ging es ganz langsam weiter. Schwer zu verstehen.

Nachdem das Leben so mindestens 2 Milliarden Jahre von einer Bakterie zu einer "echten Zelle" brauchte, (mit der neuen Datierung sogar 2,6 Milliarden Jahre) entstanden dann trotzdem nun keine Vielzeller. Dabei ist dazu nicht mehr nötig als eine unvollständige Teilung. Das dauerte weitere 900 Millionen Jahre, bevor die Vielzeller kurz vor dem Kambrium auftauchten. Dann ging jedoch alles ganz schnell. An der Grenze zum Kambrium kam es zu einer Artenexplosion. In den letzten 540 Millionen Jahren, also einem Siebtel bis Achtel der Gesamtzeit, entstanden dann enorm viele Arten, wurde das Land besiedelt, nachdem vorher nur die Meere belebt waren. Irgendwie ist das schon etwas komisch. Man könnte fast annehmen, dass man vor 600 Millionen Jahren ein Turbo-Schalter umgelegt wurde. Die Frage ist aber: Wenn man eine Urzelle mit der Fähigkeit zur Vermehrung und einem Stoffwechsel der immerhin die Gärung beherrscht, also eine Art Bakterie schon vor 3,8 Milliarden Jahre hatte, wenige Hundert Millionen Jahre, nachdem überhaupt sich die Meere bildeten, warum dauerte es dann so lange bis zur ersten richtigen Zelle? Und warum ging es danach dann so schnell mit der Weiterentwicklung der Arten?

Kommen wir aber zu den Möglichkeiten der Lebensentstehung woanders im Sonnensystem zurück. Auf der Venus gab es niemals die Chancen für flüssiges Wasser. Es konnte dort kein Leben entstehen. In den Wolken gibt es heute zwar eine Region, die von dem Druck und der Temperatur her geeignet ist, doch kein Wasser. Zumal ist nicht sicher, ob es diese Zone früher auch schon gab.

Bei Europa gibt es zwar durch die Gezeitenkraft Jupiters einen Ozean und wahrscheinlich setzt dieser auch Mineralien aus dem Kern frei. Doch die Eisschicht schützt vor der Sonne und die ist dort sehr schwach. Ohne Licht, nur auf chemische Energie angewiesen, geht dem Leben aber bald die Energie aus. Die Oxidation einfacher Verbindungen, wie Schwefelwasserstoff, liefert viel zu wenig Energie und diese ist auch bei Europa endlich. Sie reicht mit Sicherheit nicht bis heute aus.

Das kann man auch auf alle Ozeane jenseits Europa im Sonnensystem übertragen. In Jupiters Atmosphäre findet man Methan, Wasserdampf und mit Ammoniak, Schwefelwasserstoff und Phosphin auch die anderen Elemente, die man im Leben findet. UV-Strahlung könnte als Energiequelle dienen. Doch die Atmosphäre wird dauernd umgewälzt, was auch für schwebende Organismen schwierige Bedingungen sind. Sind sie zu schwer, was wahrscheinlich die erste Evolutionsstufe ist, so sinken sie herab und sterben. Wäre eine Atmosphäre ein guter Ort für die Entstehung von Leben, es hätte sich auch bei uns dort und nicht im Wasser entwickelt. Vor allem aber müssten die Organismen die Photosynthese vor der Gärung erfinden. Denn eine andere dauerhafte Energiequelle als das Licht gibt es nicht. Oxidieren sie die Spurengase in der Atmosphäre so verarmt diese rasch an ihnen und aus, war es mit dem Leben.

Zuletzt zum Mars. Beim Mars gab es niemals einen Mond und damit ein Magnetfeld, das vor dem Sonnenwind schützte. So verlor er rasch die Atmosphäre und das Wasser sublimierte und ging auch verloren. Er ist auch zu klein um auch sonst Wasser halten zu können zudem ist er weiter von der Sonne entfernt, sodass Leben vielleicht schneller entstanden sein könnte, aber auch schneller die Bedingungen unwirtlich wurden. Als kleiner, Planet ohne Mond, gab es auch weniger Vulkanismus und weniger Freisetzung von Treibhausgasen. Nach der Entstehung des Mondes rotierte die Erde in 6 Stunden war durch den Einschlag sehr aktiv. Unser Mond wälzte die Ozeane, nachdem die Erde sich abgekühlt hatte, enorm schnell um, da er damals zehnmal näher an der Erde war als heute. Das erodierte das Land und spülte so erst viele Metallionen ins Wasser, die auch als einfache Katalysatoren dienen konnten.

So gesehen glaube ich nicht an weiteres Leben in unserem Sonnensystem. Es ist auch erstaunlich dass wir über das frühe Leben trotz weitestgehender Aufklärung der Stoffwechselkreisläufe, der Vererbung und der Kartierung des genetischen Codes vieler Organismen wir heute noch diesen Riesensprung von einfachen Biomolekülen bis zu einem einfachen Bakterium nicht klären können. Selbst ein einfaches Bakterium, wie Mycoplasma genitalium hat 580.000 Basenpaare, die zu 480 Genen gehören. Das bedeutet. Dieses Bakterium kann 480 Substanzen bilden die. Der Bauplan umfasst also rund 190.000 Aminosäuren. Oft reicht es aus ein einziges Enzym zu blockieren, um die Zelle abzutöten. So funktionieren z.B. Sulfonamide oder andere Antibiotika. Es ist und nicht gelungen Leben zu synthetisieren, selbst in einfachster Form oder auch nur (ohne Vererbung und Replikation) einen einfachen Stoffwechselkreislauf aufzubauen. Ich sehe hier noch eines der größten Rätsel in der Wissenschaft und man sollte in dieses Gebiet mehr investieren, anstatt nach Higgs-Bosonen zu suchen oder 1 Milliarde Sterne zu kartieren.

7.10.2016: Trump vs Clinton und Musk vs Leitenberger

Bevor ihr weiterlest: Denkt mal über die Überschrift nach: Was könnte der Wahlkampf von Trump und Clinton mit meiner Auseinandersetzung mit Musk zu tun haben? Welche Gemeinsamkeit gibt es? Bitte klickt dann erst auf den Artikel, dass ihr weiterlesen könnt.

Nun ich sehe den Zusammenhang darin, dass Trump in der letzten Fernsehdebatte vor einer Woche nach Auswertungen 74% seiner Ausführungen erfunden hat. Nicht ganz so vornehm gesagt: Er hat gelogen. Der Prozentsatz bei Clinton lag bei nur 26% (Politiker, die nicht lügen, gibt es wohl nicht). Das erinnert mich doch an Musk und seine Ankündigungen, die bisher nachweislich zum größten Teil nicht stimmten und den Vorhersagen, die ich traf, und die (fast) alle eintraten. Ich bilde mir nur ein, dass ich auf keine 26%-Falschaussage komme.

Wenn ihr nun eine ausführliche Würdigung der am 27. September vorgestellten Marsvision erwartet – da muss ich euch enttäuschen. Das Ganze ist so wage und so weit in der Zukunft, verbunden mit irrealen Vorhersagen über das Kostenziel, das ich es weder ernst nehmen kann, noch es Substanz zum Kommentieren gibt. So sind die 100.000 bis 140.000 Euro, die pro Ticket genannt werden z. B eine Hochrechnung von kommerziellen Flügen mit Passagiermaschinen: Legt man den Preis des Treibstoffs bei einem Langstreckenflug auf die Tickets um, so hat der Marstransporter den gleichen Prozentsatz wie ein Langstreckenflugzeug – Musk geht also schlicht und einfach davon aus, dass sein Fluggerät im Einsatz so teuer ist wie ein Flugzeug, doch das fliegt häufiger und ist auch mehr als 1000-mal nutzbar. Bei zwei Starts pro Tag kommt ein Flugzeug über 25 Jahre auf über 15.000 Einsätze. Aber wie schon gesagt, um diese Äußerungen des Münchhausens der Weltraumforschung geht es nicht. (Eigentlich sollte er ja schon deswegen immer in der Münchhausenkolumne landen).

Ich nehme als Aufhänger für diesen Blog mal das letzte Interview von Shotwell das etwas ergiebiger als Musk ist, der ja keine Interviews gibt, sondern nur einzeilige Tweets oder Monologe von sich gibt.

Zuerst äußert sie sich zu der Designphilosophie bei SpaceX die dem inkrementellen Modell folgt, einem Modell, das ich aus der Softwarebranche kenne. Microsoft soll z.B. damit arbeiten und man sieht es inzwischen auch bei Windows 10 – es gibt keine neuen Releases, sondern laufende Updates bis nach ein paar Jahren das Betriebssystem komplett ausgetauscht ist. Raketen werden anders entwickelt. Man setzt das in der Raumfahrttechnik übliche System von abgeschlossenen Phasen ein, bei dem man zuerst die Anforderungen sammelt, dann die Machbarkeit prüft, dann das Design festlegt und danach die Entwicklung und Tests durchführt. Danach geht die Rakete in die Serienproduktion und wird so über Jahre oder Jahrzehnte unverändert eingesetzt. Veränderungen durchlaufen denselben Prozess. Bei SpaceX heißt die Rakete offiziell nur „Falcon 9“, man kann aber drei Subversionen mit Startmassen von 334, 505 und 540 t unterscheiden und mindestens zwei Triebwerksversionen.

Ob diese Vorgehensweise die beste ist? Bisher zweifele ich an dem Ergebnis von SpaceX. Es gab zwei Fehlschläge in zwei Jahren, die Zuverlässigkeit liegt nun bei 93,1% und damit schlechter als die aller für bemannte Einsätze genutzte Systeme, selbst die Atlas-Mercury war besser. Wenn das auch für die kommende Marsrakete gilt, dann dürften sich nicht so viele Kunden finden. Schon im Softwarebereich halte ich das inkrementelle Modell nach meinen eigenen Erfahrungen mit Windows 10 für fragwürdig. Nach dem ersten Update im November funktionierte der Debugger zweier unterschiedlicher Entwicklungsstudios nicht mehr. Nach dem zweiten Update im August stürzte das ganze System regelmäßig ab. Nach einer kompletten Neuinstallation lief es wieder stabil, aber wie ich feststellte funktionierte bei mir und meinem Bruder der Scanner nicht mehr. Dieses Wochenende gab es ein „kumulatives Update“ und das belebte den Scanner wieder – kurzum: verständlich ist das nicht und stabil auch nicht.

Die zweite Frage betraf die Satellitenkonstellation. Die Ankündigung kam ja damals zeitgleich mit einer Investition von Google über 1 Milliarde Dollar und Google betreibt ja schon Ballons zum Übertragen von Internet und hat nun auch eigene Erdbeobachtungssatelliten gestartet. Aber das war wohl nur eine Investition in die Firma. An dem Projekt arbeiten wohl nicht viele, und ob es umgesetzt wird, ist fraglich. Es wäre ja nicht das erste Papierprojekt bei SpaceX.

Dann wurde gefragt ob es doch nicht eine gemeinsame Ursache zwischen beiden Explosionen in diesem und letztem Jahr gab. In der Tat ging es ja beide Mal extrem schnell und es ging von der Oberstufe aus. Beim letzten Fehlstart war es eine Strebe, die brach, wodurch sich eine Heliumflasche löste und diese brachte dann den Tank durch den Überdruck zum Platzen und so was ereignete sich ja auch diesmal. Shotwell ist sich nicht 100% sicher und verweist auf Beschleunigungsmesserdaten und will nun weitere Kameras installieren. Das Erste (ob Beschleunigungsdaten aussagekräftig genug sind) kann ich nicht beurteile, (ob sich eine brechende Strebe auf die Beschleunigung auswirkt). Die Videokameras im Tank (die es auch bei den ersten Saturn-Testflügen gab) können zwar dann eine Flasche zeigen, aber nur wenn die Explosion lange genug dauert. Bei diesem war es ein Zeitraum von 35 bis 55 ms. Bei 25 Bildern/s braucht aber die Aufnahme eines Bildes schon 40 ms und übertragen muss es auch werden. Für Ereignisse die so schnell gehen (und 2016 ging es ja noch schneller) sind Kameras das falsche Werkzeug. Öffentlichkeitswirksam, aber eher die eigene Hilfslosigkeit charakterisierend. Wahrscheinlich ist eine Webcam einfach billiger als viele zeitlich hochauflösende Sensoren an vielen Subsystemen.

Zu dem Punkt gab es dann auch noch Nachfragen. Das Platzen des Tanks durch Überdruck kann natürlich sehr einfach durch eine Heliumflasche verursacht werden. Zum Verständnis: Der Treibstoff aus den Tanks muss in die Leitungen gedrückt werden, von dort wird er dann mit der Turbopumpe angesaugt und auf hohen Druck gebracht. Wie bei einem Hochdruckreiniger funktioniert das System nicht ohne Mindestdruck in den Leitungen. Beim Start sind die Tanks zu 99+% gefüllt und stehen unter Überdruck, typisch 2-3 Bar über Umgebungsdruck. Obwohl dann die Gravitation für eine Beschleunigung (=Druck) sorgt, wird der Druck beibehalten, weil man so auch keine Probleme hat, wenn sich die Rakete neigt. Zudem sorgt der Druck für eine Unterdrückung von Kavitation in den Leitungen. Dazu gibt es Helium als Druckgas oder als superkritische Flüssigkeit in Druckgasflaschen. Helium deswegen, weil bei etwa 400 m³ Volumen einer Falcon 9 Erststufe Luft bei 2 Bar Druck über 1 t wiegt, Helium dagegen nur 143 kg. Es gibt auch andere Techniken, zumindest beim Sauerstoff kann man auch einen Teil des LOX am Triebwerk erwärmen und als Druckgas nutzen. Wenn eine solche Flasche von ihrer Leitung reist, dann wird sie auch vom Reduzierventil getrennt und der ganze Inhalt strömt auf einmal aus, was bei einer zu 99% gefüllten Stufe den Druck von 2 auf 200 bar erhöhen wird und damit die Stufe oder die Verbindung zum unteren Tank sprengt. So was geht schnell und daher liegt eine gemeinsame Ursache nahe. Und die muss nach Shotwells Angaben auch die Ursache sein. Die Frage, die sich mir stellt, ist aber, wie ein System zweimal in so kurzer Zeit versagen kann. Meiner Meinung nach hat man sich letztes Mal zu schnell auf die Strebe eingeschossen. Vielleicht ist die gebrochene Strebe auch eine folge einer losgerissenen Heliumflasche und nicht ihre Ursache. Vor allem lässt das tief blicken. Woanders gibt es schon bei kleineren Anlässen ein tiefergehendes Review nicht nur des Systems, das direkt die Ursache war, sondern auch der verbundenen Systeme. Bei SpaceX macht man das in Softwaremanier: Bug gefunden, eliminiert, neues Release – bis man einen weiteren Bug findet, eben Spiralmodell ….

Der Theorie, dass jemand Sabotage betrieb, hängt Shotwell nicht an, aber richtig dementiert hat sie diese Theorie nascht. Ich halte das für gefährlich. Es mag zuerst verführerisch sein zu sagen „Unsere Rakete ist okay, aber andere sabotieren uns“. Aber wenn sie niemanden dingfest machen können, bedeutet das, das jeder Start ein riskanter ist. Was passiert beim nächsten Start? Wird ein Zulieferer bestochen oder ein SpaceX Angestellter? Die vielen Angestellten im CCAF? Ich hatte ja schon erwähnt, bei V36 der Ariane gab es auch den Verdacht der Sabotage, und zwar wie ich denke mit deutlicheren Hinweisen (verknotete Tücher in den Leitungen, obwohl in der ganzen Produktion keine Tücher eingesetzt wurden) doch man dementierte jeden Sabotageverdacht. Das ist, selbst wenn es zutrifft, auch die beste Verhaltensweise, die man anwenden kann. Natürlich muss man dann auch Sabotage erkennen können.

Der Knaller waren dann die Fragen zur Wiederverwendung. Zum einen wird man die Rakete die JCSAT 14 startete, nach den Tests ausmustern. Das spricht dafür, dass man die Rakete genau einmal wiederverwenden kann – dann ist es noch ein langer Weg zu 1000-mal wie bei dem Marsvehikel. Da die Merlin 1D für viermalige Sollbetriebsdauer qualifiziert sind und davon noch zwei Testzündungen und die Landung abgehen (auch wenn dort nur drei Triebwerke involviert sind) würde ich auch auf maximal 3 Einsätze tippen. Doch meine absolute Lieblingsstelle im Interview ist die:

„We are not decreasing the price by 30 percent right now for recovered and reused vehicles. We’re offering about a 10 percent price reduction. I’d rather fly on an airplane that’s flown before as I’d feel more comfortable with its reliability.“

Erstens die Begründung: Eine schon mal geflogene Rakete ist sicherer als eine noch nicht geflogene. So was fällt auch nur SpaceX ein. Andere LSP sorgen dafür, dass ihre Raketen schon beim ersten Mal zuverlässig sind, denn sonst gibt es Fehlstarts. Bei SpaceX nicht, das zeigen ja die beiden „Anomalys“ in den letzten zwei Jahren. Im Prinzip hat Shotwell damit jeden Start zu einem Testflug deklariert. Zum Zweiten: 30% Erlass gibt es für den ersten Start mit SES 10 und danach nur noch 10%. Zehn Prozent? Dafür der ganze Tam-Tam und Aufwand? Wenn ich dran denke, das man bei Ariane 6 alleine durch die Verlagerung der Produktion mehr einsparen will fragt man sich, warum man so viel Aufheben und Aufwand betreibt, um 10% Kosteneinsparung zu bekommen. Immerhin passt das ja eher zu den Vorhersagen, die ich gemacht habe. Lohnen tut es sich ja auch nur, wenn der Satellit beim ersten Start klein genug ist, denn um die 10%-Kosteneinsparung zu bekommen, sinkt ja beim ersten Start die Nutzlast um 30%. Ja das nennt man SpaceX Arithmetik. Vor allem: Wie soll dann die Marsrakete billig werden – die zweite Verwendung ist ja von der Kostenseite so zu sehen, dass die erste Stufe, umsonst ist, die hat der erste Kunde voll bezahlt. Billiger geht es nicht, dann muss man, selbst wenn man 1000-mal wiederverwendet, darüber liegen.

Das Interview schließt dann mit den üblichen Aussagen: wir produzieren mehr, wir starten mehr ... Gähn. 2011 hieß es schon wir produzieren 100 Triebwerke pro Jahr, bald 400. Bei maximal 7 Starts pro Jahr müsste man schon bei 100 Triebwerken pro Jahr )=10 Falcon 9, inzwischen ganze Hallen voller Triebwerke haben (2011 - September 2016 = 5,75 Jahre = 575 Triebwerke, ausreichend für 57 Falcon 9, gestartet wurden aber von 2011 bis heute nur 27) ganz zu schweigen von 400 pro Jahr. Trotzdem hinken sie immer mehr ihrem Launchmanifest hinterher.

Nun ja Kunden haben derzeit kaum Möglichkeiten zu wechseln. Die Proton muss auch erst nach einer Abweichung bei einem Start eines Intelsats überprüft werden. Arianespace ist ausgebucht. ULA hat nach eigenen Aussagen einen oder zwei Träger frei, da es bei Regierungsnutzlasten Verzögerungen gibt. Sea Launch erhofft sich von der Pleite auch Aufträge – die Firma wurde an eine russische Fluggesellschaft verkauft. Sie will Träger auf Vorrat fertigen, um jeden Auftrag anzunehmen. So was konnte auch mal Arianespace, als es in den Neunzigern bis zu 12 Starts pro Jahr gab, hatte man immer genügend Träger in der Pipeline um überraschende Aufträge anzunehmen. Doch heute scheint das Geschäftsmodell ein anderes zu sein. Immerhin: Neue Kunden bleiben bei SpaceX aus. Auf SpaceX Websites werden dieses Jahr gerade mal drei neue kommerzielle Starts gelistet. Das ist schon die Folge des letzten Fehlstarts und der Verzögerungen. Der kürzliche Verlust wird da sicher nicht eine Trendumkehr bewirken.

Schauen wir aber auf einen anderen LSP: Ariane 5 hat beim Start am Mittwoch den Rekord von Ariane 4 eingestellt – 74 Starts in Folge. Ab jetzt ist jeder neue geglückte Start ein neuer Rekord. Unwahrscheinlich, das die Falcon 9 jemals dieses Niveau erreicht … Nebenbei hat man mit 10.663 kg einen neuen Nutzlastrekord aufgestellt und das ohne den Rummel von SpaceX über V1.x Versionen (die erste Ariane 5 ECA transportiere noch 9.200 kg in den GTO).

11.10.2016: Bananen- und Vaporraketen

1985 erschienen zwei Produkte, die für mich der Aufhänger für diesen Blog sind. Das eine war der Atari ST, das zweite Windows. Beide sind in die Computergeschichte eingegangen, jedoch nicht nur positiv.

Der Atari ST

Der Atari ST war ein revolutionärer Computer. Er war der erste bezahlbare Rechner mit einer MC 68000 CPU, hatte einen superauflösenden Monitor. Es gab für ihn als Erstes ein bezahlbares CD-ROM Laufwerk und einen preiswerten Laserdrucker. Hinter ihm steckt Jack Tramiel, der bis vor wenigen Jahren noch Commodore leitete, und mit dem VC 20 und C64 einen Preiskrieg entfachte, der viele Heimcomputerhersteller an den Rand des Ruins brachten. Einige, wie Texas Instruments stiegen aus dem Preiskampf aus. Jack Tramiel war zwar Gründer von Commodore, aber die Aktienmehrheit hatte schon seit Jahrzehnten ein Investor. Als Tramiel versuchte, seien Söhne im Vorstand unterzubringen und der Kurs des Wachstums der Firma noch beschleunigen wollte führte das zu Spannungen mit dem Großaktionär und Tramiel musste gehen. Mit dem Verkauf seiner Anteile an Commodore kaufte er Atari auf. Atari schrieb Ende 1983 Verluste, vor allem wegen des VCS 2600 Systems, das technisch veraltet war und sich nicht mehr so gut kaufte, aber auch wegen des Preiskrieges mit Commodore. Time Warner verkaufte die Firma und Tramiel griff zu. Dort setzte er die Politik, durch die er schon beim C64 verfolgte: einen billigen Computer, auch wenn er radikal abgespeckt ist. Der Atari ST erschein als „Macintosh-Killer“: er hatte wie dieser eine grafische Oberfläche (GEM), einen 68000-Prozessor und 512 KB RAM (Versionen mit 128 KB waren geplant, doch das war zu wenig RAM). Er konnte um Diskettenlaufwerke, ein Modem und MIDI Geräte erweitert werden. Er war so mit einem Macintosh vergleichbar, kostete aber nur die Hälfte, auch wenn er deutlich teurer als ein C64 war und eigentlich vom Preis (1500 DM nur Gerät, 3000 DM mit zwei Diskettenlaufwerken und Monitor, das entspricht heute dem doppelten Preis in Euro) nicht mehr zur Gruppe der Heimgeräte gehörte.

Windows 1.0

Am 20.11.1985, kurz vor Jahresende erschien dann Windows 1.0. Die erste Version von Windows bekam eine überwiegend negative Resonanz. Windows war (und das blieb bis Windows XP so) ein Aufsatz für DOS, wurde also von DOS aus gestartet, es war kein integriertes Betriebssystem. Anders als der Atari ST bekam Windows aber vom Start weg durchgehend negative Kritiken. Windows 1 war langsam, brauchte viele Ressourcen, es fehlten trotzdem viele Features, die der Mac hatte, wie überlappende Fenster und es war eigentlich zu nichts nutze. Anwendungen gab es kaum, auch weil Windows 1.0 nur den Befehlssatz des 8086 unterstützte und als DOS-Aufsatz so der Arbeitsspeicher auf 640 KByte limitiert war – von dem gingen noch DOS und Windows ab, zu wenig blieb für ernsthafte Anwendungen.

An diese beiden Produkte wurde ich erinnert, als ich mir die SpassX-Ankündigungen durch den Kopf gingen ließ. Der Atari ST war zwar ein toller Computer, aber er wurde überhastet auf den Markt geworfen. Das Betriebssystem war fehlerhaft und später tauschte Atari die ROMs gegen neue aus. Die Routinen für die Diskettenlaufwerke nutzten z.B. nur die Hälfte der Kapazität – nur eine der beiden Seiten wurde beschreiben. Das galt leider auch für viele Anwendungsprogramme. Sehr bald bürgerte sich der Begriff „Bananensoftware“ ein. Das waren Programme, die erst beim Anwender reiften, kurz: Anwender berichteten über Bugs und die wurden erst dann nach und nach abgestellt – oder auch nie. Teilweise war die Situation so schlimm, dass Anwender lieber die CP/M Programme DBAse, Wordstar und Supercalc einsetzten, die unter CP/M 68K liefen. (GEM, die grafische Oberfläche war ein Aufsatz für CP/M 68K und so lief auch dieses Betriebssystem auf dem Atari ST. Das wäre wie, wenn man heute, weil Windows Programme zu buggy sind, auf DOS-Programme zurückgreift.

Vaporware

Doch während man bei Atari die Kurve noch bekam, der Computer selbst war nicht schlecht, sah es bei Windows 1.0 anders aus. Schon bevor es erschien, hatte das Betriebssystem von der Zeitschrift Infowourld die Bezeichnung „Vaporware“ bekommen. Seit September 1981 arbeitete man bei Microsoft an dem Interface Manager, einer grafischen Oberfläche für DOS. Nachdem Bill Gates im November 1982 bei der COMDEX Prototypen von Konkurrenzprodukten sah, wurde daraus ein eigenes Produkt, dass am 10.11.1983 offiziell mit enormer Reklame vorgestellt wurde. Da man auf der COMDEX selbst keine Werbung machen konnte, spannte Microsoft Hotels und Taxifahrer ein. So gab es in den Hotels Kissenbezüge mit dem Windows Logo oder Taxifahrer trugen eine Kappe mit dem Logo. Angekündigter Veröffentlichungstermin: Frühling 1984. Später verschob man auf November 1984 und es erschein schließlich am 20.11.1985, also nur knapp zwei Jahre verspätet – das war damals eine enorme Verspätung. In zwei Jahren konnte eine Computerfamilie total veraltet sein, da damals die Hardware noch exponentiell schneller wurde.

Was rauskam, hatte hohe Anforderungen an die Hardware. So wurde eine Festplatte, Farbgrafikkarte und Farbmonitor benötigt – das kostete bei den gängigen PCs mehr als die Basisausstattung mit Monochrommonitor und Diskettenlaufwerken. Trotzdem lief es nur auf den schnellsten PC auf Basis des 80826-Prozessors in annehmbarer Geschwindigkeit. Auf einem INM PC mit 8088 Prozessor reichte der Start einer Anwendung schon aus, dass die Analoguhr nachging, weil schon sie nicht genug Prozessorzeit bekam. Kurzum: Das Produkt war nahezu nutzlos. Es gab mit dem erwähnten GEM zudem eine schnellere alternative und die lief auch auf Monochrommonitoren und ohne Festplatte.

Reinfall Windows 1.0

Warum wurde Windows so ein Reinfall? Es waren drei Gründe, die zusammenwirkten.

Das erste war, dass Windows von dem Codeumfang eine Größenordnung über dem war, was Microsoft bisher entwickelt hatte. Da waren pro Projekt einige Programmierer tätig, zwischen denen man die Arbeit gut auftelen konnte. Bei DOS entwickelte einer das Kernsystem, ein zweiter die Treiber und einige andere die vielen Zusatzprogramme wie Copy, Format etc. Windows wurde von 24 Leuten entwickeln, die sich laufend synchronisieren und absprechen musste. Die Zeit dafür ging von der Programmierzeit ab. Es musste viel mehr dokumentiert werden, das alles verlangsamte die Entwicklung deutlich.

Das zweite war, das Bill Gates es so wie beim Mac haben wollte. Das war, weil die Hardware eine andere war, viel aufwendiger, zudem gab es laufende Änderungen von Gates, so wollte er einmal das man die Schriften die alle Bitmaps waren durch Postscript ersetzt und das nicht nur beim Druck, sondern auch auf dem Bildschirm. Bis sich zeigte das dies das System extrem langsam machte hatte man wieder Wochen Programmierarbeit in den Sand gesetzt.

Der dritte Punkt war, dass der Apple eine abgeschottete Welt war. Der Mac musste nur den Mac-Bildschirm, die Mac-Maus und den Apple Stylewriter unterstützen. Für den PC gab es etliche verschiedene Grafikkarten, Monitor, Mäuse und die Zahl der Drucker war noch größer. Für alle musste es Treiber geben, die die Fähigkeiten des Systems optimal umsetzten und die Benutzeroberfläche musste so mit verschiedenen Auflösungen und Farbtiefen zurechtkommen. All das generierte viel Arbeit beim Programmieren.

Bananenraketen

Nun der große Schwenk zu SpassX. Nachdem Shotwell ankündigte, eine wiederverwendete Falcon 9 würde den Kunden nur 10% günstiger kommen und dies so begründete:

„We are not decreasing the price by 30 percent right now for recovered and reused vehicles. We’re offering about a 10 percent price reduction. I’d rather fly on an airplane that’s flown before as I’d feel more comfortable with its reliability.“

Das heißt vereinfacht gesagt: Weil die Rakete nicht schon am Boden explodiert ist oder die erste Stufe beim Aufstieg von der Oberstufe zerstört wurde, ist die wiederverwendete Falcon 9 zuverlässiger als eine neue. Man könnte auch sagen: Zumindest diese Stufe ist bug-free. Damit reift die Rakete mit jedem Start und ist in Parallele zum Atari ST eine Bananenrakete. Neben der Unverschämtheit, die in der Äußerung steckt, im Prinzip deklariert sie ja jeden Start einer neuen Falcon 9 als Teststart, dürfte dies die Kunden wohl aufschrecken die bisher schon SpaceX gebucht haben. Es zeigt aber das ich wieder mal recht hatte. Schon früh prophezeite ich das der Hauptunterschied zwischen SpaceX und anderen LSP die Qualitätssicherung ist. Sicher kann man Geld einsparen, wenn man viel Selbst produziert, anstatt Aufträge zu vergeben, doch wenn das wirklich so viel ausmacht, wie SpaceX im Preis niedriger war, als sie auf den Markt kamen, dann würden sicher die anderen LSP auch auf den Trichter kommen und mehr selbst produzieren. Bekannt ist aber das bei allen Trägerraketen die Qualitätssicherung sehr teuer ist. Das hat die Raumfahrt schon in den ersten Jahren bemerkt als profane Nachlässigkeiten zu Totalverlusten führten. Seitdem gibt es dort rigide Qualitätskontrollen. In einem Film über die Ariane 4 wurde das Mal gezeigt, da wurden zwei Stufen miteinander verschraubt. Einer zog die Muttern an, maß das Drehmoment, das vorgegeben ist, ein Zweiter notierte das in einem Protokoll. So dauert das länger, als wenn man einfach dreht, bis nichts mehr geht. Werkzeuge mussten jedes Mal wieder an den vorgesehenen Platz gelegt werden (mit individueller Aussparung in der Kunststoffschale) und die Entnahme und Rückgabe protokolliert werden. Mit dem Konzept von „Weniger Papier – schneller und Billiger“ hat die NASA ja schon vor 20 Jahren ihre Erfahrungen gemacht und das Discovery Programm nach dem Totalverlust von drei Raumsonden wieder eingestellt.

Vaporraketen

Das Zweite sind die Ankündigungen von SpassX. Immerhin Windows 1.0 erschien ja noch verspätet. Aber was wurde aus der Falcon 1e, Falcon 5, Falcon 9 Block II, Falcon 9 Heavy, dem Dragonlab? Alle ankündigt und nie erschienen. So könnte es auch der Marsrakete gehen und die Falcon Heavy hat das Zeugs Windows im Zuspätkommen zu schlagen. Ankündigt im Mai 2011 für einen Erstflug im letzten Quartal 2013 wird nun wahrscheinlich Frühjahr/Sommer 2017 draus. Windows 1.0 kam 17 Monate zu später heraus. Die Falcon 9 ist heute schon 36 Monate hinterher. Ähnliche Verzögerungen gab es auch bei den COTS Flügen (COTS 1 um 27 Monate verspätet, COTS 2/3 um 32 Monate verspätet). Angesichts der vielen eingestellten Projekte kann man bei SpassX noch eher von Vaporraketen sprechen, als bei Windows 1.0. Das Marsprojekt dürfte wohl das größte Vapor-SpassX-Event sein. Ich wage zu prophezeien, das schon der erste Start einer Dragon zum Mars, der für 2018 geplant ist sich auf mindestens 2020, wenn nicht 2022 verschiebt. Von dem ersten bemannten Einsatz ganz zu schweigen.

Gleichgeschaltetes Forum

Noch was zum Blog: Ich möchte euch bitten hier nicht auf das Forum von Raumfahrer.net einzugehen. Zum einen sollten Diskussionen immer da geführt werden, wo sie stattfinden, also nicht hier über dieses Forum. Ich ignoriere ja, auch wenn man dort über meine Beiträge diskutiert, anstatt das direkt im Blog zu tun. Zum Zweiten denke ich messt ihr ihm eine zu große Bedeutung zu. Der SpaceX Teil bildet nicht alle Teilnehmer des Forums ab, sondern nur einige wenige, die sich nur für dieses Thema interessieren. Diese haben zudem das Forum in diesem Bereich „gleichgeschaltet“. Sprich: Es wird der Eindruck erweckt, es gäbe nur Pro-SpaceX Meinungen. Wer dagegen ist, hat schon meist die Lust verloren, darauf einzugehen. Er wird von den anderen zugemüllt, die ihre Meinungen bald als Tatsachen ansehen.

Das ist vergleichbar mit der Zeit des Dritten Reichs. Schaut man sich Material aus dieser Zeit an, so hat man den Eindruck es gäbe nur Nazis und alle sind vom Dritten Reich begeistert, weil die Medien gleichgeschaltet waren. Nach den offiziellen Entnazifizierung gab es nur 1,4% Belastete und Hauptschuldige, aber diese waren eben viel aktiver als die Mitläufer. Wenn ihr also was zu der Diskussion beitragen wollt, so tut das in dem Forum oder macht es wie ich: Ignoriert es. Das mache ich seit Jahren so gemäß dem Leitspruch: „Was juckt es die Eiche, welche Sau sich gerade an ihrer Borke reibt?“.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99