Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 196: 26.8.2010 - 30.10.2010

Dienstag den 25.10.2010: E-Books - zum zweiten

Da nun mein Dienstleister für Printprodukte BOD auch ebooks anbietet, habe ich mich nochmal mit dem Thema beschäftigt. Das eine hat eine technische Seite, es hat aber auch eine andere Seite, die der Autoren. Und ich spreche jetzt mal als Autor. Ich schreibe mein Buch mit Openoffice. Das ist ein Weg, andere mögen TEX nutzen, oder ein DTP Programm. Zum Dienstleister gelangen alle Entwürfe über einen Druckertreiber von BOD, der soweit ich das sehe daraus Postscript erzeugt, alternativ kann man auch PDF einsenden.

Das sind Formate für den Druck, sie haben sich etabliert und sie sind Standard. Nur sind sie nur bedingt geeignet für ebooks. Es ist relativ schwierig Markierungen in PDF's zu machen. Es ist für den Druck vorgesehen mit hochauflösender Schrift und Abbildungen, es ist formatgetreu.

Es ist sicher kein Problem für Webpads wie das ipad pdf's darzustellen, vor allem die darin enthaltenen Bilder. Bei den Readern auf Basis von eink, die nur wenige Graustufen durch Dithern darstellen können scheitert das Ausgeben von Bildern. Auf der anderen Seite sind andere Teile des Buchs nicht für den Reader notwendig, zumindest bei Standardbüchern - die Kopf und Fußzeilen die nur Seitennummern oder Kapitelbezeichnungen enthalten. Es sollte im Reader möglich sein, direkt Seiten anzuspringen und einfacher zu navigieren. Die Beschränkung auf den Buchblock ergibt sich auch aus den kleinen Displays und der begrenzten Auflösung der Geräte.

Auf der anderen Seite bezweifele ich das jemand auf einem ipad oder einem ähnlichen Gerät längere Zeit wirklich Bücher lesen wird. Zeitschriftenartikel vielleicht, doch für das Lesen ist das Display zu kontrastschwach, die Akkuladung zu kurz. Das Gerät schreit nach mehr - Einbettung von Bilderstrecken, Videos.

Das bedeutet wir haben zwei Geräteklassen: Die eine ahmt ein Buch nach, ohne aber die Auflösung dessen zu besitzen (meine PostScripts die zu BOD gehen haben eine Auflösung von 2.400 dpi, sie sind vier mal größer als das PDF mit 300 dpi das ich als Backup produziere) mit den Fähigkeiten die ein Buch hat - kontrastreiche Seiten, nur S/W, Surfen etc. kaum möglich oder macht keinen Spaß, dafür lange Akkulaufzeit wie bei einem Buch (Akkuladung: unendlich)

Das ipad ist dagegen ein Gerät mehr zum Surfen, es wird genutzt wie ein Computer. Die Möglichkeiten in der Darstellung gehen weiter, aber es ist nicht geeignet für längeres Lesen. So wundert es mich, das BOD, also mein Dienstleister nun ebooks über den Applestore anbietet - also für das iPad. Die Vorlagen trudeln schließlich bei BOD als PDF oder Postscript ein, und diese sind auf dem iPad darstellbar - was fehlt ist eigentlich nur Displayoberfläche -  1024 x 768 ist nicht gerade eine hohe Auflösung verglichen zum Buch.

Ich denke es wird in Zukunft eine Trennung erfolgen. Es wird sich ein Standard für für die reinen ebook Reader mit eInk etablieren. Das kann ein Druckertreiber sein wie es ihn für PDF gibt, nur eben abgestimmt auf die Möglichkeiten des Formats. Sinnvoll sollte auch ein Buch auf dieses Medium eingestellt sein, also z.b. das Seitenformat von 4:3 (normal ist sonst eher 3:2) und das Weglassen von Rändern, die nur Platz wegenehmen. Ein Format könnte z.B. Bilder in unterschiedlichen Auflösungsstufen einbetten und als S/W, gedithert oder in Farbe, falls irgendwann mal höhere Auflösungen oder Farbe möglich sind. Es könnte den Text umbrechen für die derzeitige 6" Generation und zusätzlich für größere Geräte (mein Optimum wäre so Din A5, dass sind 10"). Es sollte aber beim Rechner ansetzen und nicht nachträglich PDF in das ebook Format übersetzt werden.

Völlig anders wird es bei den Webpads laufen. Ich denke hier wird man kein klassisches Buch publizieren, sondern die Vorgehensweise wird eher dem Design einer Webseite ähneln. Tools und Content Managementsysteme dürften das Verlegen und Einbinden von Multimediainhalten erlauben.

Für mich ist zumindest eines klar: Es kommt wahrscheinlich nur für bestimmte Bücher in Frage. Bei den ebook Geräten kommen die Abbildungen aber auch Tabellen wegen der fehlenden Graustufen und vergleichsweise groben Auflösung (die meisten Geräte beherrschen nur 800 x 600) schlecht rüber.

Ich habe das mal versucht zu simulieren. Das ist ein Screenshot des PDFS, angezeigt mit ca 768 x 1024 Pixels - das ist das Format des ipad. Das hier ist dieselbe Seite, nun nur noch mit 600 x 800, und in S/W gedithert - so würde sie beim ebook Reader aussehen (okay, der Text würde sauber rauskommen, aber die Abbildung...)

Das zweite  was mich davon abhält sind die Zusatzkosten. Eigentlich sollten ja ebooks billiger zu produzieren sein als normale Bücher. Aber BOD verlangt jetzt noch 99 Euro dafür - als Printauflage kostet es nur 39.90 Euro und man muss die Printauflage dazu nehmen. Demgegenüber steht eine Marge von 25% am Verkaufspreis, der allerdings geringer ist als bei gedruckten Büchern. Wenn ich mal von 2/3 ausgehe und einem typischen Buch von mir dann kann ich z.b. für mein "Was ist Drin" Buch errechnen, dass ich etwa 30% weniger pro Buch erlöse und durch die höheren Kosten für die Publikation müsste ich mindestens 42 Bücher absetzen um die Publikationskosten rein zu bekommen - bei der Printauflage sind es nur 12. Das klingt nach wenig, aber ich schätze den Bedarf gering ein, zumal man sie ja derzeit nur mit dem ipad lesen und kaufen kann. 

Beim nächsten Ernährungsbuch überlege ich mir das nochmal, da erwarte ich am ehesten eine höhere Nachfrage und da sind auch weniger Abbildungen drin. Vielleicht ist es bis dahin auch billiger und mehr Shops angeschlossen.

Mittwoch: 26.10.2010: Die Heimcomputerschwemme

ORIC 1

Wer wie ich in den Achtzigern seine Jugend verbrachte kann sich noch erinnern: die vielen verschiedenen Heimcomputer die es gab, wobei (um gleich mal eine Unterscheidung zu treffen) mich auf die 8-Bitter beschränken will. Sicher fallen den meisten noch Namen wie die Amstrad CPC Serie, der legendäre C64 oder der Sinclair Spektrum ein. Doch das sind nur die bekanntesten einer ganzen Schar. Da gab es noch das Video Genie, den Dragon, den Oric, den Tatung Einstein, die ganze Serie von Spectravideo, den Adam von Colleco und dann noch die MSX Serie.

Obwohl damals es so viel mehr verschiedene Rechner gab, waren die Stückzahlen bescheiden - in den Achtzigern war der Computer noch die Ausnahme im heimischen Wohnzimmer. Wie aber ging trotzdem die Rechnung auf? Nun ich will man beleuchten, warum es so viele Rechner gab. Es gibt einen einfachen Grund: Weil es technisch so einfach war.

Fangen wir mal an was man damals unter einem Heimcomputer verstand. Es war ein Gerät, das man heute wohl unter einer zu dicken Tastatur einordnen würde. In dem Gehäuse steckte die gesamte Elektronik auf einer Platine. An der Rückseite gab es die Anschlüsse für die Peripherie. Üblich war ein Anschluss für einen Joystick, ein Druckeranschluss, ein Anschluss an ein Fernsehgerät (meist mit externem Decoder) und der Peripheribus. Letzterer war eine Kopie des Adress- und Datenbusses und erlaubte die Erweiterung des Geräts. Bessere Geräte hatten auch einen separaten Floppyanschluss.

Wer den Computer einschaltete den begrüßte ein BASIC Interpreter - kein Betriebssystem. Stattdessen dürfte man so nette Sachen wie 10 for i=1 to 100:? i,:next eintippen.

Dragon 32Die obligate Peripherie bestand aus einem Nadeldrucker und entweder einem Kassettenrecorder oder einer Floppy als Datenspeicher. Letztere war lange Zeit Luxus und kostete genauso viel wie das Gerät selbst.

Technisch basierten die meisten Rechner auf dem Z80 oder 6502 Prozessor, manche auch auf Varianten des 6800 wie dem 6809. Intel war mit dem 8085 Prozessor damals praktisch nicht vertreten. Warum gab es so viele verschiedene Rechner? Weil es technisch so einfach war. Nehmen wie die Zutaten eines typischen Rechners mit 32 KByte RAM und 32 KByte ROM. Man benötigt den Prozessor selbst, dann ein ROM zum Speichern des Betriebssystems und Basic Interpreters und das RAM. Das RAM gab es in Form von Standardbausteinen wie dem Typ 4164 oder 6116. Das ROM wurde bei Großserien meistens maskenprogrammiert (eine Maske entschied schon bei der Belichtung welche Kreuzungsstellen ein Bit enthalten oder nicht). Bei Kleinserien, oder den ersten Exemplaren waren auch EPROM's üblich, wie das 2754 oder 27128. Ein EPROM wird durch eine hohe elektrische Spannung programmiert und kann auch wieder durch UV-Licht gelöscht werden. Daher wurde bei den Computern das im freien Verkauf übliche Quarzfenster (übrigens das teuerste Teil bei einem EPROM) weggelassen und durch einen Plastikprof ersetzt oder überklebt.

Was noch benötigt wurde waren einige Bausteine der 74xxx Serie. Diese Bauteile waren einfache Gatter die dazu dienten abhängig von bestimmten Signalen zwischen den Chips oder den Bussen die nach außen gingen umzuschalten. Dazu ein Beispiel: Der Rechner soll über 32 KByte RAM (Adresse 0-7FFFH) und 32 KByte ROM (Adresse 8000-FFFFH) verfügen. Wenn nun auf das ROM zugegriffen werden soll, darf sich nicht das RAM angesprochen fühlen. Das kann man erreichen indem ein Gatter das Chip-Select und das höchstwertige Bit UND Verknüpft und damit das ROM an den Adressbus schaltet und beim RAM das Chip-Select Signal nicht weiterreicht. Je mehr Chips vorhanden sind und je mehr Anschlussmöglichkeiten es gibt, desto mehr dieser Bausteine sind nötig, weshalb viele Hersteller einen eigens programmierten Baustein für diese Aufgabe hatten. Aber es geht auch ohne.

Bis dahin ist das noch ein Rechner denn jeder so machen kann - es gab in den achtziger auch zahlreiche Selbstbau-Einplatinenrechner um Computern von der Pike auf zu lernen - man programmierte das EPROM mit einem einfachen Überwachungsprogramm, dem Monitor als "Betriebssystem" und gab Daten über 7-Segmentanzeigen aus und über eine Hexadezimaltastatur ein.

ADAM CollecoDer Unterschied beim Heimcomputer ist die Tastatur, der Bildschirm und der Basic Interpreter. Es gab damals schon Bausteine die sich vollständig um die Erzeugung eines PAL/NTSC Signals kümmerten, wie der MC 6845 Vidicontroller. Das lief üblicherweise so ab, dass man einen der Modi des VideoProzessors aktivierte und der Prozessor dann in einen dafür reservierten Speicherbereich des RAM das Bitmuster schrieb, das erscheinen sollte. Der Videoprozessor kümmerte sich dann um die Erzeugung der PAL/NTSC Signale. Oftmals gab es separate Geräte für NTSC und PAL oder getrennt Boxen nur für die Signalerzeugung.

Auch für Töne gab es schon Bausteine wie den AY-8910/8912. Dieser konnte immerhin mehrstimmige reine Sinustöne, sowie Rauschen erzeugen.  Auch hier reichte es die Parameter des Sounds zu übermitteln und das Gerät kümmerte sich um die Erzeugung. Auch für das Speichern der Daten auf die Floppy gab es eigene Bausteine wie den NEC 765 Kontroller. Trotzdem war damals fast nichts standardisiert: Fast jeder Hersteller hatte ein eigenes Format zum Speichern auf die Floppy. Wählbar waren Sektorgröße (256, 512, 1024 Bytes) Anzahl (5 bis 16) und Anzahl der Spuren (35-43). Das dies standardisiert war, machte auch tricks möglich. So konnte mein Rechner nominell nur 40 Spuren anlegen. Wenn ich jedoch die Disketten mit 43 Spuren formatierte, gingen mehr Daten drauf und das Betriebssystem erkannte dies auch, wenn man ein Byte änderte.

Andere Bausteine waren für die Standardschnittstellen Centronics und RS232 verfügbar.

Tatung EinsteinBleibt die Software: Die Computer waren noch so klein, dass wenige Personen, bei entsprechender Hingabe sogar ein einzelner. So programmierte Steven Wozniak das Apple OS und den Basic Interpreter selbst und Gary Kildall auch den Kern von CP/M. Doch selbst bei anlegen von Industriemaßstäben (pro Programmierer 10 Zeilen Code/Tag) entspricht ein 32 KByte großes Betriebssystem mit Basicinterpreter nur etwa 800 Manntagen - vier Programmierer können es in einem Jahr erledigen. Ein Dutzend in einem halben Jahr.

Damit hatte man alle Bausteine für einen Heimcomputer - schon eine kleine Firma konnte basierend auf den Standardbausteinen ein eigenes Modell kreieren und damit erfolgreich sein oder nicht. Es lag dann an der Unternehmenspolitik und den technischen Finessen - war das Gerät preisgünstig (Commodore), leistungsfähig (CPC) oder hatte einen guten Leumund (Acorn BBC Computer).

Der Rechner mit den wenigsten Chips war der Sinclair ZX81 - er bestand nur aus dem Prozessor, zwei RAM Bausteinen, einem ROM Baustein und einem eigenen Chip der die anderen Bausteine ersetzte.

Bei der Übergang zur 16 Bit Generation stieg die Rechenleistung an. Die Geräte konnten nun 1 MByte oder 16 MByte adressieren. Natürlich wäre es möglich einen Rechner so zu bauen wie einen 8 Bitter. Aber die Leute wollten dann mehr. Sinclair probierte das mit dem QL. Doch die Rechenleistung reichte aus für eine garfische Benutzeroberfläche, leistungsfähigere Programmiersprachen oder ganz einfach Anwendungssoftware aus. Damit stiegen aber auch die Anforderungen an die Geräteentwicklung und die entwicklungskosten explodierten. Es gab nur noch wenige Hersteller die neben den üblichen IBM Kompatiblen auch noch andere 16 Bitter herstellen. Und die hatten dann auch noch Probleme als mit den 32 Bittern die entwicklungskosten weiter anstiegen. Anfang der neunziger Jahren gingen die letzten beiden - Atari und Commodore beide pleite.

Heute kann man die Rechner von damals emulieren - und zwar nicht nur per Software, sondern dank FPGA sogar in Hardware und so wieder die alte Peripherie anschließen.

Buch Nummer 8: Ariane 5 und Vega

So, nun ist es erschienen und ich mache wie immer an dieser Stelle wieder Werbung für das Buch. Ich könnte es ganz einfach machen und mal Thomas zitieren, der Korrekturleser war. Es gibt ja jedes Mal ein Buch von mir als kleine Aufmerksamkeit für das Lesen und da die Auswahlmöglichkeit ob es das gelesene ist oder ein anderes (schließlich ist der Inhalt des gelesen ja schon bekannt). Das bekam ich als Antwort:

" Ja, den Band 2 würde ich gerne bekommen, er ist glaub ich wirklich DAS Referenzbuch zu Ariane 5 !!! ;-)) "

aber ihr kennt mich, es gibt noch etwas mehr Reklame. Das Buch ist wirklich voll mit Fakten, es enthält etwa viermal mehr Text als meine Aufsätze auf der Website. eine Fülle von Daten stecken in alleine über 100 Tabellen. Ergänzt durch 160 Grafiken, darunter welchen die man so nicht so häufig sieht oder von mir erstellt wurden, wie Sequenzen aus Ariane 5 Launch Videos.

Doch es geht nicht nur um die Technik. Auch die Entwicklungsgeschichte der Ariane 5, inklusive einer kurzen Story über Hermes und der Vega sind enthalten. Das Buch endet bei beiden Trägern mit einem Ausblick in die Zukunft - Erweiterungspläne Überlegungen für Nachfolgeprojekte, wie z.B. die Ariane 6.

Für mich ist es sicher eines der besten Bücher von mir, und zumindest das mit dem größten Arbeitseinsatz, was nicht zuletzt an der europäischen Raumfahrtindustrie und ihrer Informationspolitik liegt.

Es wird dieses Buch nicht als Teile geben, wie ich dies noch beim ersten Band gemacht habe. Zum einen zeigen die Verkaufszahlen, dass es dafür keine Nachfrage gibt und zum zweiten entfällt der größte Teil auf die Ariane 5, für die sich auch die meisten interessieren werden. Und die Vega ist noch lange vom Erstflug entfernt, vielleicht nehme ich das mal raus wenn dieser ergänzt ist und es genügend zu ergänzen gibt.

Für alle die sich genauer informieren wollen. Hier die Seite bei BOD.

wer es beim örtlichen Buchhändler bestellen will. Hier die Daten:

Europäische Trägerraketen Band 2

Ariane 5 und Vega

Books on Demand
ISBN 978-3-8391-0165-0, Paperback,

352 Seiten, 29,90 Euro

Wenn's bei Amazon lieferbar ist, erfahrt ihr natürlich hier im Blog.

Donnerstag 28.10.2010: Der Tod und die Todesstrafe.

Geht es eigentlich nur mir so? Immer wenn jemand im Fernsehen so theatralisch stirbt, frage ich mich wie das wohl in Wirklichkeit so ist. Also wenn jemand zweimal in die Brust getroffen ist, kann der noch die Wunden ansehen bevor er zusammenbricht? Überhaupt, fallen die nicht gleich Tot um und wenn was fühlen die so?

Nun ja, seit Montag habe ich da einen kleinen Vorgeschmack. Ich will die Straße überqueren, schaue nach links - nächstes Auto weit weg, nach Rechts - Truck muss warten bis er abbiegen kann, gehe auf die Straße und Wumm! Ein Auto das aus der Straße kam aus der ich gerade kam und daher nicht von mir einsehbar im Rücken war hatte mich erwischt.

Das Resultat: ein geprellter Fuß und Schrammen am Ellenbogen. Da das Auto maximal 10 m zum Beschleunigen hatte, verlief es noch glimpflich. Mich ärgert mehr, dass ich nach dem Unfall so verwirrt war, das mir nicht auffiel, das mein MP3 Player nun weg war. Aber eines war erstaunlich - ich habe davon nichts mitbekommen. In einem Moment war ich noch auf der Straße und im nächsten war ich auf der Straße. Ich habe weder den Aufprall mitbekommen, noch wie ich gestürzt bin. Wenn das nun eine höhere Geschwindigkeit gewesen wäre, wäre ich wahrscheinlich tot - aber auch da hätte ich wohl nichts vom Aufprall mitgekriegt.

Das leitet mich zum zweiten Thema über. Der Todesstrafe. In Filmen und Romanen werden da ja die absonderlichsten Methoden beschrieben. Zuletzt bei den Windsors - da wurde ein Koch der Bischöfe vergiftete in siedendes Wasser getaucht. Immerhin scheint das Köpfen ja auch nicht so toll gewesen zu sein - für Anne Bolyn wurde ja extra ein Scharfrichter bestellt, der das mit dem Schwert erledigte anstatt mit dem Beil, und das dürfte wohl ein Grund für die Erfindung der Guillotine gewesen sein.

In den USA gibt es ja eine Reihe von Möglichkeiten, die in diesem doch so fortschrittlichen und aufgeklärtem Land, noch immer verbreitete Todesstrafe zu vollziehen. Der Trend geht über die Jahrhunderte ja dazu das ganze "humaner" zu machen - humaner für die die sie durchführen müssen, nicht die Todeskandidaten. Möglichst wenig Verantwortung an der Handlung oder die Reduktion auf etwas was Alltägliches oder nicht direkt der Handlung zuzuordnendes. So wie im Krieg auch der Pilot eines Bombers nur noch aufs Knöpfchen drücken muss und nicht mehr die Opfer seiner Bomben sieht.

So verwundert es nicht, das kürzlich die Erschießung eines Todeskandidaten durch die Presse ging. Interessanterweise gilt das als "archaisch". Ich kann das nicht nachvollziehen. Zwar würde ich auch annehmen, dass die Giftspritze vorzuziehen wäre, doch dafür müsste sie fachmännisch ausgeführt werden. Im Prinzip ist das ja so wie bei einer Operation oder dem Einschläfern von Haustieren. Erst gibt es etwas das man ohnmächtig wird und dann eine tödliche Dosis. Nur darf das kein Arzt durchführen und wohl auch anderes medizinisch ausgebildetes Personal. Stattdessen lässt man dann Laien auf die Todeskandidaten los. So gibt es immer weder Fälle von verwechselten Venen/Arterien. Die anderen Hinrichtungsarten scheinen auch nicht so toll zu sein.

Vor ein paar Jahren kam mal auf diesen Wissensendungen bei den Nachrichtensendern (also die Entsorgung des US-Mülls, den sonst keiner haben will), eine Sendung in der sich der Autor mit den verschiedenen Todesarten beschäftigte und den Nachteilen die sie haben. Das dies nicht neutral war, zeigte sich schon daran, dass er nach einer "schmerzlosen" Art suchte, anstatt den Sinn der Todesstrafe generell anzuzweifeln. Schließlich fand er auch eine: Einatmen von Luft in der der Stickstoffanteil langsam gesteigert wird, er probierte das auch aus, soweit es eben ging ohne Schäden davon zu tragen. Man wird durch den Sauerstoffmangel zuerst müde und dann ohnmächtig. Er schlug das dann als "humane" Todesstrafe vor. Doch selbst er war erstaunt als er dann mit dem Vorsitzenden einer "Pro Todesstrafe" Vereinigung sprach über seinen Vorschlag. Der meinte nämlich. Die Todesstrafe soll nicht human sein, sondern im Gegenteil möglichst schmerzhaft langsam um abzuschrecken. Solche Leute sind dann sicher auch noch für abgestufte Todesstrafen je nach Verbrechensschwere und würden bestimmt auch Todeskandidaten in den Löwenkäfig des nächsten städtischen Zoos einsperren...

Ja, die USA, das Land des unendlichen Wahnsinns.

Freitag 29.8.2010: Wir bauen uns eine Superrakete

Ares, Saturn V, N-1, Energija - teure Träger für wenige Missionen. Geht's nicht auch einfacher und um ein paar Milliarden billiger? Klar doch, nur verdienen dann einige Raumfahrtfirmen nicht so viel und Raumfahrtbehörden haben keine neuen, teuren Projekte am Laufen. Der Schlüssel ist das Clustern von Stufen. Ich will mal zeigen wie dies am Beispiel der Ariane 5 Technologie möglich ist.

Stufe 3: Im Inneren steckt die dritte Stufe. Es ist eine normale Ariane 5 EPC.

Stufe 2: Sie wird umgeben von sechs weiteren Ariane 5 EPC. Sie bilden die zweite Stufe

Stufe 3: An jedem dieser sechs EPC sitzen zwei Ariane 5 Booster, nur eben nicht im 180 Abstand (das ist räumlich nicht möglich, sondern an der Außenseite.

Es zünden wie bei Ariane 5 Stufe 2+3 gleichzeitig. Stufe 3 muss später zünden, außer bei Erdorbitmissionen, dafür würden zwei Stufen reichen. Die Nutzlast in diesen Orbit würde bei etwa 135/190 t (zwei/drei Stufen) liegen. Da die Ariane 5 EPC sonst am Boden gezündet wird, also nicht unter Schwerelosigkeit und nicht wiederzündbar ist, gibt es einige Anpassungen. Das erste ist, dass sie unter Beschleunigung gezündet werden muss. Entweder werden dort Vorbeschleunigungsraketen eingebaut, die das erledigen, oder die von mir favorisierte Lösung ist, dass die Zündung erfolgt solange die äußeren EPC noch brennen, z.B. nach 530 s. Dann brennen eben 10 s lang beide Stufen gleichzeitig bis die äußeren Stufen ihren Triebstoff verbraucht haben und abgetrennt werden.

Das zweite ist, das ohne Wiederzündung eine Mondbahn direkt erreicht werden muss. Erst einen Erdorbit erreichen geht nicht. Was geht sind reine Erdorbitmissionen (z.B. für Module einer Marsstation die später gemeinsam gestartet werden) oder direkte Flüge. Eine Oberstufe mit dem Vinci Triebwerk wäre zu schubschwach - man bräuchte 7-8 davon um ein Vulcain zu ersetzen.

Es gäbe allerdings noch eine kleine Tuning Möglichkeit: Da die zentrale EPC nur im Vakuum arbeitet, könnte wie beim Vinci eine Düsenverlängerung zum Einsatz kommen, die vor der Zündung ausgefahren wird. Eine Erweiterung des Expansionsverhältnisses von derzeit 62 auf 240 (wie beim Vinci) müsste den spezifischen Impuls um 150 m/s steigern (extrapoliert von den bekannten Werten für das Vinci Triebwerk). Optimaler wäre eine etwas veränderte Stufungsreihenfolge z.B. 4 - 2 -1 aber da das Vulcain 2 sehr schubschwach ist, ist dies möglich.

Trotzdem erhält man ein Rakete mit einer Nutzlast von über 70 t zum Mond, mehr als bei der Ares V. Bestehend aus Ariane 5 Komponenten kann sogar der Startpreis abgeschätzt werden. Basierend auf den Schätzungen aufgrund der publizierten Auftragshöhen (EAP: 20%, ESC-A, 20%, Rest EPC, VEB, Fairing) und einem Produktionspreis von 130 Millionen Euro pro Ariane 5, würde ein Start einer Ariane 6 "Moonrocket" etwa 700 Millionen Euro kosten. Eventuell durch die höheren Stückzahlen der benötigten Stufen weniger. Hauptproblem dürfte her sein, dass die Ariane 5 Fertigung auf maximal 10 Träger pro Jahr ausgelegt wurde. Bei 6 normalen Starts pro Jahr wäre so eine Mondmission nur alle zwei Jahre möglich. Aber die Investitionen dafür (und vielleicht generell in eine ökonomischere Produktion), wären wohl klein im Vergleich zu den Entwicklungskosten einer neuen Rakete.

Analoges wäre auch möglich mit der Delta IV CCB oder der Atlas V. Entsprechende Vorschläge gab es ja von Boeing und Lockheed. Das Potential ist wegen fehlender Feststoffbooster etwas geringer, da die Delta IV ja schon drei CCB benötigt um zur Ariane 5 aufzuschließen.

Die Einschränkungen dieser Vorgehensweise ist, dass natürlich die Zahl der Triebwerke recht groß wird. Bei Feststoffboostern ist das noch kein so großes Problem. Sie zählen als sehr zuverlässig und die Delta setzte über 30 Jahre lang jeweils neun Booster pro Start ein, bei zwei Fehlstarts aufgrund der Booster. Schwieriger ist die Koordination von flüssigen Triebwerken und ihre Zuverlässigkeit ist auch statistisch geringer. Je höher die Anzahl ist, desto wahrscheinlicher ist ein Ausfall oder eine Fehlfunktion. Allerdings gibt es eine Reihe von Trägern die mit acht Triebwerken erfolgreich flogen - Ariane 4, Saturn I+IB. Hier sind es sechs Stück -genauso viel wie in der Proton. Ich denke das ist noch eine beherrschbare Zahl.

Rakete: Ariane 12-6-1

Startmasse
[kg]
Nutzlast
[kg]
Verkleidung
[kg]
Geschwindigkeit
[m/s]
Verluste
[m/s]
47473967179612000110002283
StufeNameVollmasse
[kg]
Leermasse
[kg]
Spez.Impuls (Vakuum)
[m/s]
133420004500002701
21131600846004256
3190000155004390

Samstag 30.10.2010: Das Risiko von vielen Triebwerken

Nun die Antwort auf die obige implizit gestellte Frage ist ganz einfach: Jedes Triebwerk ist eine Fehlerquelle. Ich will mich auf Triebwerke mit flüssigen Treibstoffen beschränken, da Feststoffbooster insgesamt zuverlässiger sind, zumindest sagt uns das die Statistik der Fehlstarts von Trägerraketen. Ein Triebwerk mit flüssigen Triebwerken hat aufgrund der beweglichen Teile mehr Möglichkeiten auszufallen.

Nehmen wir ein Beispiel: Eine Rakete mit zwei Stufen und je einem Triebwerk, z.B. die Delta IV, verglichen mit einer mit drei Stufen und sechs Triebwerken in den drei Stufen (4, 1, 1), z.B. die Ariane 1-3. Nehmen wir an jedes Triebwerk hat ein Ausfallsrisiko von 1%. Daneben gibt es noch andere Subsysteme in der Rakete z.B. Steuerung, Stufentrennung, Tanks, Ventile, die versagen können. sagen wir diese sind für 1% der Fehlstarts verantwortlich.

Im einen Fall beträgt dann das Risiko eines Fehlstarts 3%, im anderen 7% - klingt nach wenig, doch absolut bedeutet das eine Steigerung um 133%. Wenn man nun übergeht wie bei der Saturn IB, Ariane 4 oder Falcon 9 auf acht bis neun Triebwerke in der ersten Stufe, so wird das Risiko noch größer und bei der N-1 mit insgesamt 44 Triebwerken in fünf Stufen ist ein Ausfall schon recht wahrscheinlich.

Wie kann man dem begegnen?

Nun zum einen natürlich mit der technischen Auslegung der Triebwerke. Entweder, indem diese sehr einfach sind, sodass die Wahrscheinlichkeit eines Ausfalls klein ist - also arbeiten mit bewährter Technik, hohe Sicherheitsschwellen. Ein Beispiel sind z.B. die Viking Triebwerke: sie arbeiteten mit niedrigem Brennkammerdruck, der Treibstoff entzündet sich hypergol (kein Zündsystem nötig), neben der regenerativen Kühlung wird auch Filmkühlung eingesetzt.

Eine zweite Möglichkeit besteht darin, wenn dies aus Performancegründen nicht möglich ist, die Triebwerke extensiv zu testen um alle Designfehler und versteckten Fehler zu finden. So ging man bei den NK-33 und 43 vor, aber auch den F-1 und J-2.Dadurch sollte die Zuverlässigkeit steigen. Problematisch wird es wenn aber ein Triebwerk komplex, mit geringen Sicherheitsreserven und kaum getestet ist. Dann ist ein Ausfall vorprogrammiert. So wundert es nicht, dass die erste Generation der N-1 Triebwerke eine erschreckend niedrige Zuverlässigkeit hatte.

Eine weitere Möglichkeit ist es, sich gegen einen Ausfall zu wappnen, wenn er schon statistisch wahrscheinlich ist. Nun kommt das berühmte Stichwort, der "engine out capability". Auf gut deutsch: Eine Rakete sollte ihre Mission auch absolvieren können, wenn ein Triebwerk ausfällt. Dabei wird es immer Situationen geben die zum Verlust führen. Wenn ein Triebwerk explodiert genauer gesagt die Turbine/turbopumpe mit ihren beweglichen Teilen sich zerlegt, dann dürften die Splitter die umgebenden Triebwerke beschädigen. Dagegen helfen auch keine Kevlarumhüllungen, wie sie bei der N-1 oder Falcon 9 eingebaut sind. Bei der N-1 verhinderten sie zumindest keinen der Fehlstarts.

Doch das ist eher die Ausnahme. Oft genug sind Störungen rechtzeitig erkennbar und ein Triebwerk kann abgeschaltet werden bevor es beschädigt ist, zumindest wenn es über separate Treibstoffleitungen verfügt.

Das Problem das sich ergibt, ist die Schubasymmetrie und der Schubverlust. Zuerst einmal zum letzteren: selbst wenn die Rakete eine so hohe Startbeschleunigung hat, dass der Schubverlust nicht zum Höhenverlust führt, so erhöht er doch die Gravitationsverluste. Es muss daher immer eine Treibstoffreserve vorhanden sein um dies abzufangen. Bei der Saturn IB mit engine-out capability betrug sie rund 1.000 kg. (Nicht nur für diesen Fall). Da die Reserve hier nur eine Fehlfunktion der ersten Stufe auffangen sollte, ist ihre Größe unabhängig von der Nutzlast, da diese ja kaum das Gesamtgewicht beeinflusst. Mögen die 1.000 kg (entsprechend 7 % der LEO Nutzlast) bei LEO-Missionen noch tolerierbar sein, So machen sie bei Mondmissionen schon rund 20% der Nutzlast aus.

Das zweite ist die Schubasymmetrie. Denn nun fehlt an einer bestimmten Position ja der Schub. Ohne Regelung bricht die Rakete in diese Position aus. Nun haben alle Träger schwenkbare Triebwerk, doch dies geht nur um einen bestimmten Winkel, üblich sind 6-9 Grad. Reicht ein Maximalausschlag nicht zur Kompensation aus, so ist die Mission verloren. Dazu ein Beispiel: Bei Ariane V35 sank der Schub in einem der acht Triebwerke durch einen Lumpen in einer Treibstoffleitung ab. Nach 90 s erreichten die Triebwerke den Maximalausschlag und konnten nun den asymmetrischen Schub nicht mehr kompensieren. Die Rakete drehte sich und nach 110 s gab es Brüche in der Struktur, welche die Selbstzerstörung initiierten.

Die Standardvorgehensweise bei einem Ausfall eines Triebwerks bei einem Träger mit "Engine-Out capability" ist es daher die Triebwerke punktsymmetrisch zur Rotationsachse einzubauen und das gegenüberliegende Triebwerk ebenfalls abzuschalten, so erfolgt beim zweiten Testflug der Saturn V. Die Schubsymmetrie ist dadurch gewahrt. Dadurch verdoppelt sich allerdings auch der Schubverlust und daher auch die hohen Reserven die nötig sind. Bei der Falcon 9, als neuestem Modell mit dieser Fähigkeit bedeutet dies, dass sie mit 7 Triebwerken noch arbeiten sollte. Mit den derzeitigen Triebwerken ist das noch nicht gegeben, da der Schub bei einem Ausfall direkt nach dem Abheben zu gering ist um die Rakete weiter zu beschleunigen. Bei den geplanten Upgrade wird das gegeben sein.

Erstaunlicherweise ist es nun so, dass je mehr Triebwerke eine Rakete einsetzt, ein Ausfall um so leichter abgefedert werden kann. Nehmen wir die N-1 mit 30 Triebwerken in der ersten Stufe. ein Ausfall wäre bei 99% Zuverlässigkeit in jedem dritten Start zu erwarten. Aber der Schub würde nur um 3,3% absinken. Mit Abschalten des gegenüberliegenden Triebwerks um 6,7 %. Der Verlust wäre aber auch noch in diesem geringen Maße durch Schwenken der Triebwerke abfangbar.

Trotzdem geht der Trend zu einem Triebwerk. Ein Triebwerk mit höherem Schub ist billiger zu produzieren als mehrere mit geringerem Schub, das System ist einfacher und ein Ausfall unwahrscheinlicher, wenn auch mit katastrophalen Konsequenzen. Es gibt nur wenige Gründe viele Triebwerke einzusetzen. Bei sehr großen Triebwerken sind es die hohen Entwicklungskosten gekoppelt mit nur wenigen Einsätzen für Mond- oder Marsmissionen, weshalb sowohl Ares V wie auch Saturn V fünf bzw. sechs Triebwerke in der ersten Stufe einsetzten. Ein anderer Grund kann es sein so nur wenige Triebwerkstypen für alle Stufen zu benötigen. So bei Ariane 1-4 einen Typ für zweite Stufe, erste Stufe und Booster. Bei der N-1 jeweils einen Typ für erste und zweite und einen weiteren für die vierte und dritte Stufe. Es ginge sogar mit nur einem Typ, z.B. in der Kombination ein Triebwerk - vier Triebwerke - 16 Triebwerke bei drei Stufen.

Kombiniert man Engine-Out capability mit Schubüberschuss und erprobten Triebwerken, so rettet das Missionen. Bei der Saturn I+V fielen Triebwerke bei drei Missionen aus und es gab keinen Verlust. Kombinieren aber "faule" Triebwerke, mit keiner guten Umsetzung der "engine-Out capability", dann resultieren Träger wie die N-1 - kein Start glückte. Was in jedem Falle nicht abgefangen werden kann ist ein Ausfall in einem Booster - diese haben eigene Treibstofftanks ohne Verbindung zur Hauptstufe. Selbst wenn ein Triebwerk abgeschaltet werden kann so verbleibt dort noch Treibstoff, der Schwerpunkt ändert sich und das Gewicht zur Brennschluss steigt an - es wird eine Menge tote Masse mitgeführt.

Es wird interessant sein wo die Falcon 9 da steht.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99