Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 519: 17.1.2018 - 1.2.2018

17.1.2018: Themes und Twitter

Am Sonntag bekam ich eine Mail von einem der vielen Hans(e) die hier Leser sind über eine Fehlermeldung beim Absetzen eines Kommentars. Die ist nicht neu. Sie entstand irgendwann einmal als mal Wordpress aktualisiert wurde, vielleicht auch PHP. Keine Ahnung, da der Kommentar trotzdem abgesetzt wurde hat sie mich nicht gestört. Ich habe sie behoben. Mit etwas Recherche im Internet bekam ich die Fehlerursache raus, obwohl PHP keine Sprache ist die ich beherrsche.

Ich habe das zurück gemailt und bekam  dann als Antwort das mein Theme doch etwas altbacken ist. Außerdem wäre die Platzaufteilung suboptimal. Na ja mir gefällt "Giraffe 2" so heißt das Theme ganz gut. Aber ich sehe natürlich auch das Problem das es seit 2007 nicht mehr weiterentwickelt wird. Daher wäre es sinnvoll ein neues Theme zu verwenden, zumal es ja immer mehr Probleme gibt. Bei Giraffe 2 kann ich z.B. den Customizer von Wordpress nur teilweise verwenden.

Es ist ja nicht so das ich nicht schon früher andere Themes ausprobiert habe, aber die wenigsten passten mir. Dabei sind meine Ansprüche eigentlich eher klein:

Man kann bei Wordpress die Themeauswahl eingrenzen, doch wenn man dann ausprobiert fällt dann doch die eine oder andere Macke auf. Viele Themes leiten Kommentare mit „one thought“ ein, sind also nicht lokalisiert. Bei anderen kann man im Kalender nicht Tage mit Blogs von welchen ohne unterscheiden. Andere lassen viele Lücken und nutzen eben doch nicht die ganze Breite. Ich habe jetzt mal ein paar installiert die ich mir vorstellen könnte und hoffe mal auf eure Rückmeldung. Seit einigen Tagen ist „Catch Responsive“ aktiv. Morgen kommt dann „Masonic“ für zwei Tage dran und dann das letzte „Overview“. Gebt doch mal Rückmeldung wie sie euch gefallen. Ohne Rückmeldung von euch kann es gut sein, dass ich zu Giraffe 2 zurückkehre.

Das zweite ist Twitter. Ich habe jetzt auch ein Twitter-Konto (https://twitter.com/B_Leitenberger). Grund war das vieles was ich in der letzten Zeit nachgeschaut habe über Twittermeldungen lief. Schon nach wenigen Stunden sah ich den Nachteil des Mediums. Ich habe nur offizielle Quellen abonniert (Institutionen) sowie einige wenige Raumfahrtberichterstatter wie Jonathan McDowell oder Daniel Fischer. Insgesamt 25 Stück. Also nicht so arg viel. Trotzdem kommt man mit dem Lesen nicht nach. Das Problem: Die Leute haben gar nicht so viel zu sagen. Sie retweeten aber andere Posts und sie machen Posts zu Themen die nichts mit Raumfahrt zu tun haben – okay bei Privatpersonen verständlich, aber wenn DLR_Next von einem Schneesturm twittert, dann ist es unpassend. Da ich mal annehme das fast jeder mehreren Personen folgt sollte man die Informationsmenge auf das absolut notwendige beschränken. Sonst gibt es Informationsoverdose.

Ich bin mir nicht so sicher ob ich da dauerhaft dran bleibe. Aber von mir gibt es nur Ankündigungen – wenn ein neuer Blog raus ist, eine neue Webseite oder ein Buch. Für alle die nicht die Blog-Seite bei den Startstabs haben, was eigentlich die empfehlenswerte Lösung ist.

18.1.2018: Warum Intel und Microsoft heute bei den wertvollsten Unternehmen der Welt dabei sind.

Man kann sich die Antwort auf die Frage natürlich einfach machen: weil die meisten PC einen Intel-Prozessor und ein Microsoft Betriebssystem haben. Doch das greift zu kurz. Es gibt ja in jedem PC auch eine Festplatte und da gibt es inzwischen nur noch zwei Hersteller (Seagate und WD) weltweit die den Großteil des Marktes bedienen sowie einige kleinere. Viele andere wie Maxwell, IBM, Conner, Samsung sind verschwunden. Trotzdem haben die nicht die Finanzkraft und das Einkommen von Intel und Microsoft. Ähnliches kann man von den Herstellern von DRAM und Flash-RAM behaupten.

Ich will die Frage aber weiter ziehen, nämlich nach den „Gewinnern“ und „Verlierern“ von 30 Jahren PC. Wer so lange dabei ist, dem wird aufgefallen sein, das sich die Kosten doch stark verschoben haben. Vor 30 Jahren war ein IBM-PC noch für die meisten nicht finanzierbar, stattdessen betrachte ich die etwas kleinere Klasse der Heimcomputer.

Hardwarepreise damals und heute

Diese Klasse, die heute ausgestorben ist, bestanden aus dem eigentlichen Computer. Das wäre auf heute übertragen ein Rechner mit Tastatur, aber ohne Massenspeicher, vielleicht noch am ehesten mit einem Tablett zu vergleichen. Für das musste man 500 bis 1000 DM löhnen. Genauso teuer, oft sogar teurer als der Computer war die Diskettenstation, die aus einem Diskettenlaufwerk und einem Kontroller bestand. Den Kontroller gibt es nicht mehr. Er wanderte erst in den Chipsatz auf das Motherboard. Heute ist er sogar Bestandteil des Prozessors.

Der Monitor war in der Klasse unüblich, man schloss sie an einen Fernseher an. Ein Monochrommonitor kostete damals rund 500 Mark. Farbmonitore waren extrem teuer rund lagen bei über 1.000 Mark, weshalb damals die meisten mit Schwarz-Weiß Monitoren arbeiteten. (Genauer gesagt, meist mit Schwarz-Grün, da die grüne leuchtende Schicht nachleuchtete und so langsamen Bildschirmaufbau kaschierte).

Die Festplatte, heute schon wieder von der SSD verdrängt, war damals unerschwinglich teuer. Die meisten PC erschienen mit zwei Diskettenlaufwerken. Erst mit dem IBM AT, 1984, war die Festplatte Bestandteil der Basiskonfiguration des Gerätes und das auch lange nur in diesem höherpreisigen Segment. Als der IBM PC erschien, war er noch ohne Festplatte. Als es die Ersten gab, kamen die in einer eigenen Erweiterungsbox, da das Netzteil nicht genug Strom lieferte. Der IBM PC XT hatte dann eine Festplatte, kostete aber dann auch 6000 Mark mehr als der normale IBM PC, fast doppelt so teuer. Heute liegt eine Standardgröße für den PC bei 100 Euro. Das ist der stärkste prozentuale Preisverfall.

Für die folgende Liste habe ich die ct'-Archiv-CD bemüht. Leider habe ich die meisten Computerzeitschriften von damals entsorgt. Heute würde ich gerne mal wieder drin stöbern. Zum einen wegen der Testberichte aber auch d en Anzeigen von damals. Was es damals schon gab, waren „Taiwan-Nachbauten“ des Apple II. Da dieser modular war, gibt es die Preise für die Komponenten. Hier mal eine Liste aus der ct‘ 12/83.

Komponente

Preis

Prozessor 6502

16,50

RAM (24 x 4116)

24 x 3,95 = 94,80

Motherboard unbestückt

140

Motherboard mit allen Bauteilen

598

Motherboard fertig zusammengebaut

698

Floppy Disk Controller unbestückt

95

Floppy Disk Controller mit allen Bauteilen

195

Floppy Disk Controller zusammengebaut

289

Floppy Disk SS/DD

525

Lüfter

42

Gehäuse mit Keyboard

175

80 Zeichen Karte

135

Apple II kompatibler PC (Motherboard, 48 KByte, Gehäuse, Tastatur. Komplettgerät

1.275

Laufwerk komplett mit Controller und Gehäuse

848

12 Zoll Grünmonitor

420

Komplettpaket (Apple II Nachbau, 1 Floppy Disk, Grünmonitor)

2.149

Festplatte

6.000

Das Komplettpaket ist – wen wundert es, billiger als die Summe der Einzelteile. Vor allem fällt auf, das verschiedene Komponenten unterschiedlich teuer sind. Der Prozessor macht weniger als 1 % des Gesamtpreises aus. Heute sind es – wenn man einen Mittelklasse PC mit Monitor, Tastatur und Maus nimmt – bei 700 Euro meist so um die 80 bis 100 Euro, die auf den Prozessor entfallen. Er ist also um ein Vielfaches teurer als damals, obwohl der Gesamtpreis des PC gesunken ist. Das Motherboard kostet heute um die 60 bis 100 Euro, anstatt 700 Mark. Floppys gibt es nicht mehr. Wenn man einen DVD-Brenner als Analogon nimmt, dann ist man mit 25 bis 40 Euro dabei – hier liegt der Preisverfall also bim Faktor 10 bis 15. Am stärksten hat es die Festplatten erwischt. 6000 Mark zu rund 80 bis 100 Euro für eine 2 bis 3 TB Platte.

Das ist insofern erstaunlich, weil die Preisreduktion beim Motherboard darauf beruht, dass man viele Chips brauchte. Links sieht man das Motherboard eines Apple II. Alle Chips, die dort drauf sind, befinden sich heute im Prozessor, insofern ist dann der höhere Preis schon etwas mehr gerechtfertigt. Floppys und Festplatten bestehn aber vor allem aus Mechanik. Dass die Kostenreduktion in diesem Maße (Faktor 30) gelang, obwohl bei Mechanik nicht das Moor‘sche Gesetz gilt, ist erstaunlich.

Was sich geändert hat, waren die Zyklen. Damals wurde ein PC lange gefertigt, auch die Komponenten, aus denen er bestand. Der Apple II wurde 1977 vorgestellt. Der Ausschnitt ist aus der ersten ct‘ 12/1983. Damals aktuell war das Nachfolgemodell IIe (mit 64 Kbyte Speicher, europäischen Zeichensatz, 80 Zeichendarstellung). Ein Jahr später kam der Apple IIC heraus der ebenfalls noch einige Nachfolger hatte. Er wurde bis 1993 produziert. Das gleiche kann man über den IBM PC, C64 oder andere Computer der Zeit sagen. Mein zweiter Rechner war ein CPC 464. Nach vier Jahren fiel er aus – ich habe mir einen neuen gekauft, er wurde noch unverändert produziert nur eben nur noch 289 anstatt 899 DM teuer. Dass ein PC immer billiger wird, aber länger produziert wird, gibt es heute nicht mehr – schade, denn durch die immer langsameren Zuwächse beim IPC würden wohl viele heute gerne einen Rechner mit Haswell-CPU für die Hälfte des Preises kaufen, dass er 2014 kostete, als die CPU aktuell war.

Das Gleiche gilt auch für die Prozessoren. Der 6502 erschient 1976, er war zu dem Zeitpunkt schon 7 Jahre alt und er wurde noch lange danach produziert. Den Z80 gibt es bis heute. Er wird seit über 40 Jahren produziert. Natürlich wurden die Chips immer billiger. Wer damals einen MC68000 kaufte also was Aktuelles musste mehrere Hundert DM ausgeben. Heute ist das anders. Ein Prozessor ist maximal 2 Jahre auf dem Markt dann gibt es ihn nicht mehr. Auch so kann man Preise hochhalten. Auch das ist nicht überall so. Wer will, kann heute noch ohne Problem eine 500-GByte-Festplatte neu kaufen – das ist die Kapazität, die um 2008 Standard war. Ebenso gibt es kein Problem RAM Chips zu kaufen, die nicht die höchste Kapazität haben.

Vor allem aber sinken die Preise durch Konkurrenz. Intel kann die Preise hoch halten, weil AMD lange Zeit keine Konkurrenz war. Das hat sich seit einem Jahr geändert, wobei AMD aber bisher vor allem sich auf den Server/Desktop Markt konzentrierte. Noch fehlen die Strom sparenden Chips für portable Geräte und auch die Gegenstücke zur Intel Celeron, Pentium und Icore I3 Serie um in dem Segment, wo die meisten Chips verkauft werden, auch einen Preiskampf zu entfalten.

Software

An und für sich hat Software das Potenzial viel billiger als Hardware zu sein. Software muss man einmal schreiben und kann sie beliebig oft kopieren. Für den Vertrieb ist Software sogar noch billiger geworden: Früher musste man ein Handbuch drucken, das bevor es die CD gab, wirklich dick war. Dazu kamen die Datenträger. Das umfangreichste Paket, das ich mal hatte, war WordPerfekt 5.1 auf Diskette – 24 Stück. Danach ging zuerst alles auf CD, später DVD. Das reduzierte die Kosten schon enorm. Heute wird alles über Internet vertrieben. Datenträger fallen dann komplett weg und als weiterer Bestandteil die Marge des Zwischenhandels, also des Fachhandels.

Zudem denke ich ist Software leistungsfähiger geworden. Ich muss nur mal sehen, was ich heute in einem bestimmten Zeitraum zustande bringe und was früher. Natürlich kann man Programme nicht direkt vergleichen. Aber wenn ich mal die Usability, also den Nutzen gegen den Zeitaufwand nehme, so denke ich ist man heute viel effizienter als früher. Der Blick auf die Geschichte zeigt das. Programme wurden lange Zeit nur von Firmen vertrieben, auch wenn sie einzelne Schöpfer hatten. In den späten Achtzigern entstand die Shareware bei denen Programmierer ihre Programme selbst vertrieben. Obwohl nur einer dran arbeitete, waren diese oft konkurrenzfähig. Heute gibt es Millionen von freien oder Sharewareprogrammen.

So ist Software im Trend auch billiger geworden. Wer in den Achtzigern für einen PC die Komponenten kaufte, die man für das brauchte, was man heute als Office bezeichnet: Textverarbeitung, Datenbank, Tabellenkalkulation und Businessgrafik (Präsentationen gab es damals noch nicht), der gab damals eine Menge Geld aus. Die Computerkette ESCOM legte ihren Rechnern ein Office-Softwarepaket bei und warb damit, dieses Softwarepaket separat erworben alleine 2.000 bis 3.000 DM kostete. Das ging, weil schon damals Volumenlizenzen viel billiger waren. Selbst wann man es heute von Microsoft kauft, bekommt man es zu einem Bruchteil des Preises. Vieles ist sogar umsonst. Früher gab es Software umsonst nur als Listing in Computerzeitschriften oder durch „tauschen“. Den letzten Weg haben heute Hersteller durch Registrierung übers Internet praktisch ausgeschaltet.

Es gibt aber Ausnahmen. Software, die marktbeherrschend ist, sank im Preis kaum. Dazu gehören z.B. die Produkte von AutoCAD aber auch Adobe. Natürlich gibt es Alternativen – ich setzte z.B. Affinity Photo und Affinity Designer anstatt Photoshop & Co ein. Aber es ist nicht das Gleiche. Ein ähnliches Beispiel ist meine Programmiersprache, Delphi. Da gibt es kaum Alternativen und bei ihr ist der Preis sogar noch angestiegen. Turbo Pascal kostete damals 275 DM, heute sind es für die billigste Variante von Delphi 999 Euro.

So ein Beispiel ist Windows. Früher kostete DOS um die 200 DM, später wurde es billiger, dafür musste man aber noch Windows zusätzlich kaufen. Über Jahrzehnte blieb der Preis für die billigste Variante des Betriebssystems von Microsoft im Einzelhandel bei rund 100 Euro. Entsprechend ist es die Cash-Cow von Microsoft.

Zusammenfassung

Beim obigen Apple II-Nachbau kostete der Prozessor 16,50 DM von 2.180 DM des Gesamtsystems, weniger als 1 %. Heute dürfte er, wenn man keine Extrembeispiele nimmt, bei etwa 10-15 % liegen. Bei einem IBM-PC lagen die Kosten für das Betriebssystem bei 200 DM bei über 10.000 DM Anschaffungspreis, also auch nur 2 %. Bei einem heutigen Preis von 700 Euro für einen Durchschnitts-PC (komplett) kostet das Betriebssystem dagegen rund 15 bis 20 %. Deswegen stehen beide Firmen so gut da.

Wäre es anders, ich glaube beide Firmen hätten längst Schwierigkeiten. Beide haben Trends verschlafen. Den großen Umsatz macht man heute nicht mehr mit PCs und mit Servern, auch nicht mit Notebooks. Deren Verkäufe stagnieren. Die Benutzungsdauer eines PC steigert immer weiter an, auch weil der Geschwindigkeitszuwachs immer kleiner wird.(Siehe Grafik über die Befehle pro Takt über die letzten Generationen von Intel links). Die Leute kaufen sich aber alle zwei Jahre ein neues Smartphone, dazu noch ein Tablett, Smartwatches gibt es inzwischen auch und sicher kommen bald noch neue Smart-Gadgets. Dafür geben sie viel mehr Geld aus als wie für ihren PC oder Notebook. Sie wechseln sei schneller aus und besser: man braucht nur ein Notebook oder einen PC, kann aber beliebig viele Smart-Gadgets haben. In all diesen Geräten steckt kein Intel-Prozessor und sie arbeiten nicht mit Windows. Intel versuchte es erst als ARM-Lizenznehmer (Xscale), dann mit Atoms. Außer bei den Tabletts gab es keine Marktdurchdringung. Ihre Chips brauchen einfach zu viel Strom.

Microsoft machte noch mehr Versuche. Es gab etliche Windows Versionen für Mobilgeräte. Windows Phone, Windows Mobile, zuletzt Windows 8. Auch hier nur ein Erfolg bei Tabletts. Selbst der Aufkauf des Telefonherstellers Nokias änderte daran nichts.

Andere Firmen wären bei solchen unternehmerischen Fehlentscheidungen und in den Sand gesetzten Milliarden an Entwicklungsaufwand längst den Bach herunter gegangen. Durch die Cash-Cows-Prozessoren und Windows blieben Microsoft und Intel davon verschont.

Apple zeigt, was aus beiden Firmen werden könnte. (Amazon und Google sind ebenfalls Beispiel, doch als Internetfirmen nicht direkt vergleichbar). Apple war nahezu bankrott als Steve Jobs wieder zurückkehrte. Heute hat die Firma den höchsten Firmenwert weltweit, und zwar nicht weil sie weiter Macs produzierte, sondern, weil er neue Dinge „erfand“ (es gab schon vor dem IPhone Smartphones, vor dem IPad Tabletts und vor dem iPod MP3 Player) die in waren und Anklang fanden.

21.1.2018: Wie klein kann eine Rakete sein?

Heute Morgen gelang der zweite Teststart der Elektron. Glückwunsch zum Erreichen des Orbits. Ich wünsche dem Unternehmen viel Erfolg. Sie sind ja ein ziemliches Wagnis eingegangen. Die Nutzlast ist so klein, das die Elektron praktisch nur für den Cubesat und Minisatellitenmarkt (bis maximal 100 kg) nutzbar ist. Sie haben ja schon einige gebuchte Start, doch der langfristige Geschäftserfolg hängt davon ab, ob dieser Trend anhält und ob nicht die schon etablierten Firmen den Markt bedienen. Vor allem Indien, aber auch Russland bieten ja mehr Fluggelegenheiten an, während man in den USA und Europa doch sehr zurückhaltend ist.

Es hat ja beim zweiten Anlauf geklappt, wobei schon beim ersten die Schuld nicht an der Rakete sondern einer abgerissenen Datenverbindung bei der Bodenstation lag. Dabei ist die Rakete sogar noch innovativ – sie kommt ohne Gasgenerator aus. Alle Turbopumpen werden elektrisch angetrieben. Dabei kommt die Elektron nicht aus einem klassischen Raketenland, wo selbst Multimilliardäre mit ihren ersten Raketen grandios scheiterten. Die Elektron wird für einige Monate die kleinste Trägerrakete der Welt sein. Dann steht der zweite Testflug der SS-520 an, einer umgebauten japanischen Höhenforschungsrakete an. Auch bei ihr war der erste Testflug nicht erfolgreich. Ihr Nutzlast von 20 kg ist nochmals deutlich kleiner.

Ich nehme den erfolgreichen Testflug mal zum Anlass aufzuzeigen, wie klein eine Rakete sein kann. Ich hatte das ja schon mal skizziert. Wahrscheinlich hat man das in Japan gelesen denn die SS-520 sieht mir doch nach einer Kopie meines Konzepts aus. Wenn man eine noch kleinere Nutzlast als etwa 20 bis 50 kg erreichen will wird es aber schwierig. Es gibt zwei Hindernisse:

Fangen wir mit dem ersten an. Bei Stufen mit flüssigen Treibstoffen nimmt das Voll-/Leergewichtsverhältnis ab. Das liegt an zwei Faktoren. Kleine Triebwerke haben ein ungünstigeres Schub-/Gewichtsverhältnis. Triebwerke um 1.000 kN Schub können eines von 100 erreichen, ein 400 N Triebwerk nur noch eines von 10. Bei den Tanks ist es so, dass die Dicke der Wände proportional zum Tankdruck ist. Bei druck-geförderten Tanks wie auch „normalen“ ergibt sich so ein konstanter Strukturfaktor – bei großen Raketen. Je stärker man aber die Rakete verkleinert, desto dünner müssten auch die Wände werden und irgendwann erreichen sie eine minimale Dicke, bei der dann andere Faktoren keine weitere Gewichtsreduktion mehr zulassen. Die Atlas Tanks waren so dünn, das sie ohne Innendruck kollabieren würden, was auch mehrmals vorkam. Also auch hier ist es naturgemäß vorgegeben, dass kleinere Stufen schwerer werden.

Bei Feststoffstufen ist es etwas günstiger. Sie stehen von vorneherein unter hohem Druck. Die Wanddicke ist daher höher. Doch auch hier gilt: sehr kleine Stufen haben ein hohes Leergicht, verglichen mit der Startmasse. Jedoch einen günstigeren Strukturfaktor als kleine Stufen mit flüssigem Treibstoff. Schaut man sich ATK‘s Produktkatalog an so wird das deutlich, kleiner die Stufe desto kleiner der Treibstoffanteil an der Startmasse. Aber auch hier gibt es Ausnahmen. Das TE-M-500 kommt mit nur 1,72 kg Treibstoff auf einen Treibstoffanteil von 87%, ansonsten haben alle Triebwerke mit unter 30 kg Treibstoff einen von kleiner als 0,8. Der leichteste Antrieb der >=0,9 erreicht ist der TE-M-251 mit 115 kg Treibstoff. Der TE-M-711/3 erreicht sogar 0,95 – ein Voll/Leermasseverhältnis von 20 das auch großen Stufen oft nicht erreichen.

Eine Rakete bestehend aus den ATK-Antrieben TE-M-500, TE-M-541, TE-M-763 und TE-M-604A würde rund 250 kg wiegen bei einer Nutzlast von 2 bis 3 kg. Das ist aber nur ein Aspekt. So eine Rakete würde nicht funktionieren. Eine Rakete hat mindestens zwei weitere Aufgaben zu erfüllen:

Optional gibt es noch zwei weitere Aufgaben:

Fangen wir mit dem ersten an. Eine Rakete startet senkrecht. Sei baut zuerst eine Vertikalgeschwindigkeit auf. Bei normalen Raketen neigt sie sich dann langsam immer mehr in die Horizontale. Das Programm muss so ausgelegt sein, dass die Vertikalgeschwindigkeit so hoch wie bei einem senkrechten Schuss der die Orbithöhe als Gipfelhöhe erreicht, die horizontale Geschwindigkeit die des Orbits entspricht und vor allem der Großteil der horizontalen Geschwindigkeit in einer Höhe erreicht wird, bei der ein stabiler Orbit resultiert. Feststoffraketen haben mit dem letzten Kriterium wegen der kurzen Brennzeit Probleme und schieben daher oft Freiflugphasen ein, so auch die Vega und Epsilon. Eine technisch einfache Lösung ist es die Rakete in einem schrägen Winkel zu starten. Dies wird auch bei der SS-520 so gemacht, ebenso bei den japanischen My. Die Rakete erhält so einen Großteil oder sogar die gesamte Vertikalgeschwindigkeit beim Betrieb der ersten Stufe, dann muss sie in die Horizontale gedreht werden. Das können zwei Raketentriebwerke mit festem Impuls durchführen, das eine induziert ein Drehmoment, das zweite stoppt es. Per Funk muss man sie nun so timen, das die zweite Zündung stattfindet, wenn die Rakete die Horizontale erreicht hat oder einen flachen Winkel.

Bei der Scout gab es ein etwas ausgeklügelteres Programm mit variablen Drehraten durch Kaltgasdrüsen, aber die Rakete absolvierte ein festes Programm das vor dem Start festgelegt war. Der Preis war das eine Scout sehr hohe Abweichungen von der Sollorbithöhe hatte, bis zu 100 km bei kreisförmigen Orbits. Ganz niedrige Orbits sind daher fast nicht möglich. Auch die erste Nutzlast der SS-520 sollte sicher nicht aus Zufall einen exzentrischen Orbit erreichen.

Das zweite ist die Stabilisierung. Es wirken ja Kräfte auf sie ein: Wind, Luftwiderstand, ungleiche Schubverteilung etc. Die einfachste Möglichkeit zur Stabilisierung ist es während der aerodynamischen Phase mit Flügeln die Rakete durch ihre Geschwindigkeit zu stabilisieren. Eine Drehung erzeugt höheren Widerstand gegenüber der Luftströmung. So wurde die A-4 mitstabilisiert, allerdings nicht als einzige Maßnahme. Das Prinzip nutzen auch Höhenforschungsraketen. Sie erreichen relativ schnell eine hohe Geschwindigkeit, denn solange die Geschwindigkeit klein ist, ist der Luftwiderstand bei einer Drehung auch klein. Später kann man eine Rakete stabilisieren indem man sie in eine rasche Rotation (50-200 U/min) bringt. Diese Maßnahme wird bei vielen Raketen angewandt vor allem bei der letzten Stufe, wenn diese nicht mehr aktiv gesteuert wird. So bei Black Arrow, Diamant, Scout, Delta. Auch dies könnten die Triebwerke für die Umlenkung der Bahn bewerkstelligen, wenn sie im schrägen Winkel angebracht sind.

Eine solche Low-Tech Rakete könnte einen Orbit erreichen, allerdings mit hohem Risiko und großen Unsicherheitsfaktoren. Nehmen wir das Umlenken in der Horizontale. Wenn der Impuls der Triebwerke fest ist, also keine Flüssigkeitsrakete, die man wieder abschalten kann. Dann muss dies bei einer definierten Höhe und Geschwindigkeit erfolgen. Sonst erreicht man entweder keinen Orbit, sondern nur eine suborbitale Bahn oder den falschen Orbit. Bei der Scout lebte man mit Unsicherheitsfaktoren in der Orbithöhe. Aber wenn man nicht die momentane Geschwindigkeit und Ausrichtung weiss, dann ist das ein Glücksspiel. Daher wird man zumindest auf eine Telemetrie, die laufende Daten über die Rakete sowohl die Messwerte von Sensoren wie auch die Daten über Ort, Ausrichtung und Geschwindigkeit nicht verzichten wollen. Die Daten über Geschwindigkeit und Ort kann man durch Verfolgen der Bahn mit mindestens zwei Bodenstationen durch Triangulation gewinnen. Die Information über die Ausrichtung aber nicht. Auch bei Miniaturisierung wiegen solche Systeme mit Sendern, Batterien noch einiges. Bei der SS-520 z.b. 52 kg. Das ist ein Vielfaches der Satellitenmasse von 20 kg. Bei der Vega wiegt das AVUM noch mehr, weshalb ich auch die Idee einer Vega-Light für blödsinnig halte, da dann die Nutzlast von 2,3 auf 0,25 t sinkt – die AVUM mit rund 500 kg Leermasse bleibt ja konstant. Die einzige Lösung ist es die Steuerung von der letzten Stufe zu trennen. Diamant, Black Arrow, Scout und Epsilon integrieren sie in die vorletzte Stufe. Die letzte wurde spinstabilisiert und war ohne aktive Steuerung. Die Avionik hatte die Aufgabe die Rakete auf eine Suborbitale Bahn zu bringen die einen Punkt hatte, bei dem man die letzte Stufe zünden konnte und diese dann den gewünschten Orbit erreicht. Da 10 kg mehr bei der vorletzten Stufe typischerweise 3 kg weniger Nutzlast entsprechen ist dies günstiger, aber man erreicht so nicht Bahnen mit präzisen Vorgaben.

Der letzte Punkt ist die aktive Kompensation von Störeinflüssen. Typischerweise indem man Triebwerke dreht oder auf andere Weise den Schubvektor beeinflusst (Strahlruder, Sekundäreinspritzung, Lageregelungstriebwerke) aber auch der Brennschluss wenn die Zielbahn erreicht wird. Das ist eigentlich nur möglich, wenn die letzte Stufe mit flüssigem Treibstoff arbeitet. Die Vega setzt das ein. Bei Black Arrow und Diamant machten das die unteren Stufen mit flüssigem Treibstoff. Bei andren Raketen wie Athena oder Pegasus gibt es ein optionales System mit flüssigem Treibstoff das die Bahngenauigkeit erhöht als optionale Stufe.

Fazit

Ich denke, wenn einem große Schwankungen in der Orbithöhe egal sind, wäre eine solche Low-Cost Rakete möglich. Man würde sie schräg mit Flügeln starten, eventuell sogar von einem Flugzeug aus – das hat den Vorteil, dass Flügel schon beim Start wirksam sind, da dieser bei höherer Geschwindigkeit stattfindet. Es ging aber nicht ohne eine minimale Messeinrichtung. Diese würde man in der ersten Stufe anbringen. Sie würde die Bodenstation über Geschwindigkeit und über Neigungssensoren über die Lage informieren. An der ersten Stufe befinden sich dann mehrere Feststofftriebwerke mit festen Impulsen. Zum einen zum Versetzen der Rakete in schnelle Rotation. Zum anderen zum Kippen der Rakete. Die Bodenstation berechnet dann den Zeitpunkt, bei dem das Kippen ausgelöst wird und wann es wieder gestoppt wird. Danach wird die Rakete in Rotation versetzt und die erste Stufe mit dem toten Gewicht der Steuerung, Flügeln und Zusatztriebwerke abgeworfen. Das findet während der sowieso nötigen Freiflugphase statt.

Die Frage ist allerdings ob es sich lohnt. ATK hat zwar einen Product-Katalog, aber ohne Preise. Ich vermute die Kosten wären verglichen mit der Nutzlast sehr hoch.

25.1.2018: Wie macht man dem Speicher Beine?

Ich denke es ist mal wieder an der Zeit einen Nicht-Raumfahrtblog einzuschieben. Im Prinzip ist das was ich schreibe nichts Neues, steht sogar viel ausführlicher auf der Webseite, doch ich weiß auch das es nicht jeder lange Aufsätze liest. Warum geht es? Es ist das Problem das der Speicher bei Computern zu langsam ist, und es schon immer war.

Das Problem entsteht eigentlich dadurch, dass Speicher billig sein muss. Die größten CPUs und GPUs haben über 1 Milliarde Transistoren entsprechend liegen solche Grafikkarten und CPU im hohen dreistelligen Euro-Bereich. Würde man pro Transistor ein Bit speichern, dann würde das für gerade mal 128 MByte Speicher reichen, der nur einige Euro kostet.

Speicher musste also billig sein. Der erste Speicher war sogar mechanisch. Schallwellen in Quecksilber wurden als Speichermedium genutzt, später magnetisch beschichtete Trommeln. Das war schon langsam gegenüber Röhrenrechnern. Für zwei Jahrzehnte war der Standardspeicher der Ringkernspeicher, bei dem kleine Eisenringe magnetisiert wurden. Auch Ringkernspeicher war immer langsamer als die Logik, auch wenn die Zugriffszeit von Millisekunden der mechanischen Speicher auf Millisekunden fiel. Ende der Sechziger Jahre war die Technologie soweit, das man signifikante Datenmengen auf IC speichern konnte. Damit eröffnete sich das Potenzial, das der Speicher genauso schnell ist wie die Logik. Doch es kam nicht so. Es gab zwei Gründe. Das eine war, das wenn man ein Bit so speichert wie im Prozessor, man 4 Transistoren braucht. Könnte man die Zahl reduzieren so bekommt man mehr Bits pro Speicherchip. Das zweite war das eine neue Technologie versprach den Platzbedarf pro Transistor zu reduzieren. Das zweite war der Übergang von der Bipolar auf die noch heute verbreitete MOS-Feldeffekt Technologie. Aus Bipolar-Transistoren, bzw. dessen Abkömmling ECL basierte die Logik der Computer. Sie schaltete schnell, da ein Transistor nie den Sättigungszustand erreichte, verbrauchte aber viel Energie und damit war ein Transistor auch recht groß. Die MOS-FET versprach viermal kleinere Strukturen, aber schaltete viel langsamer als Bipolar-Technologie. Intels erster Speicherchip hatte 64 Bit in Bipolartechnologie, der zweite 256 Bit in MOS-FET. Er war trotz vierfacher Kapazität billiger.

Das zweite war das man einen Weg fand, ein Bit in nur einem Kondensator zu speichern und man nur einen Transistor als Auslasstor brauchte, anstatt vier bei der Verwendung eines Flip-Flops die man in der CPU nützte, um Bits zu speichern. Das DRAM war dann nochmals viermal billiger pro Bit.

Damit war RAM aber wieder langsam. Die ersten D-RAMS die Anfang der Siebziger Jahre auf den Markt kamen, hatten Zugriffszeiten von 250 bis 300 ns. Die Zugriffszeit ist die Zeit, die ein Speicher braucht, bis er nach einer Anforderung durch die CPU die Daten herausrückt. Es gibt dann noch die Zykluszeit – meistens kann man nach dem Zugriff nicht sofort den nächsten starten, sondern der Speicher muss die Informationen wieder schrieben, da das Auslesen sie vernichtet. (Heute wird das ganze noch granulärer angegeben wie Zugriffszeit pro Reihe/Spalte etc.)

Als einfacher Richtwert kann gelten: Braucht eine CPU einen Takt für einen Zugriff, so beträgt die maximale Taktfrequenz ohne das sie auf Daten warten muss, den Kehrwert der Zugriffszeit, bei 250 ns also 4 MHz. 10 Jahre später hatte sich die Zugriffszeit verdoppelt, zwanzig Jahre später nochmals verdoppelt. Im gleichen Zeitraum hatten sich bei Prozessoren die Taktfrequenzen aber um den Faktor 20 erhöht und anstatt 4 Takten für einen Speicherzugriff brauchte der Prozessor nur noch einen. Speicher wurde also immer langsamer, verglichen mit dem Prozessor. Das ist bis heute so.

Schon früher hat man also nach Wegen gesucht, die Langsamkeit zu Kaschieren. Alle Versuche basieren auf einer Tatsache: sowohl Computercode, wie auch Daten sind sehr lokal. Sprich: braucht man den Wert einer Speicherzelle so ist es sehr wahrscheinlich, das der nächste Zugriff auf die nächste Speicherzelle geht, weil Code linear ausgeführt wird und Variablen hintereinander im Speicher stehen.

Die erste Lösung ist es, einen schnellen Speicher lokal verfügbar zu halten. Die einfachste Lösung war ein Befehlspuffer, der die nächsten und letzten Befehle speicherte. So was hatten viele Großcomputer in den Sechzigern. Er bestand aus schnellem Speicher und die Logik war oft sehr einfach – es flogen immer die Daten raus dem Buffer die am weisesten von der aktuellen Position des Befehlszeigers entfernt waren. Dafür musste der Prozessor vorausschauen lesen, im Fachjargon Prefetch. In der x86-Linie wurde das schon beim 8086 eingeführt.

Für Daten, die ja auch abgespeichert werden müssen, war die Lösung es viele Register einzusetzen. Ein Compiler konnte so möglichst viele Register für das Programm nutzen und die Speicherzugriffe minimieren. Das gipfelte schließlich in Vektorregistern, die 64 bis 1024 Zahlen aufnahmen. Bei Intel ist das in der AVX/SSD Technologie implementiert. Anstatt die Zahl der Register zu vergrößern fassen die dafür bis zu 512 Bit, was bis zu 16 einfach genauen Zahlen entspricht.

Die zweite Möglichkeit einen lokalen Speicher einzusetzen ist der Cache. Es ist ein kleiner Speicher der in einzelne Bereiche, Cachelines unterteilt ist. Eine Logik speichert immer die zuletzt gebrauchten Daten im Cache. Es gibt mehrere Technologien der Verwaltung. Das Problem ist, das das Verwalten des Caches auch Zeit benötigt, z.b. zum Durchsuchen. Das darf nicht zu lange dauern. Heute haben alle größeren Prozessoren Caches, meist sogar mehrere gestufte, z. B. einen kleinen, schnellen und einen größeren langsameren.

Die zweite Möglichkeit ist es Langsamkeit durch Bandbreite zu ersetzen. Ein Prozessor der nur 32 Bit verarbeitet, ruft z. B. 256 Bit vom Speicher ab. Das sind dann die nächsten 8 Speicherzellen. Die hat er dann schon und muss sie nicht abrufen. Mit großer Bandbreite arbeiten heute Grafikkarten, früher Großrechner. Bei austauschbaren Modulen bekommt man meist die vielen Leistungen dafür nicht unter. So arbeitet DDR-RAM nur mit 64 Bit.

Die dritte Möglichkeit ist das vorausschauende Lesen. Wenn man weiß, das man die nächsten Daten bald braucht, dann kann der Speicher intern sie schon mal auslesen und in einen schnellen Zwischenspeicher ablegen. So arbeiteten viele Speicherbänke für Großcomputer, die mindestens das nächste Wort so voraussehend lasen. Eine Variation des Prinzips ist DDR-RAM. Hier überträgt das RAM automatisch die nächsten 64 Bit bei dem nächsten Flankenwechsel, insgesamt 8-mal, das ist angepasst an die 64 Byte großen Cacheslines heutiger Prozessoren. Nur für diesen Modus gilt die Datenübertragungsrate, die ausgewiesen ist.

Bei heutigen Rechnern unüblich, aber früher bei Großrechnern verbreitet, war das verteilte Lesen. Ein heutiger PC kommt mit einem Speichermodul aus, bis zu vier passen in normale PC-Boards. Bei Servern sind es mehr. Dabei geht jeweils ein Zugriff auf die erste Bank, der nächste auf die zweite usw. Zwischen den Zugriffen kann die Bank sich erholen (Zykluszeit > Zugriffszeit) und sie kann auch vorausschauend lesen. Die Technik ist nützlich, wenn eine hohe Linearität vorliegt. Bei Supercomputern von Cray die große Arrays verarbeiteten, war dies gegeben. Diese hatten bis zu 256 Speicherbänke. Bei einem PC liegt dagegen der Geschwindigkeitsvorteil dagegen im einstelligen Prozentbereich.

Insgesamt ist die Technik die ja heute kombiniert eingesetzt wird, sehr erfolgreich. Seit etwa 15 Jahren ist die Zugriffszeit von Speicherbausteinen kaum gesunken. Sie liegt heute bei 7 bis 10 ns, was für Taktzyklen von 100 bis 150 MHz, nicht aber viele GHz ausreicht. Durch Caches und vorausschauendes Lesen merkt man davon fast nie etwas. Findet am die Information aber nicht im Cache so kann es sogar noch länger dauern als die Zugriffszeit des Rams beträgt. Die typische Latenz eines Speichers beträgt heute 80 bis 100 ns. Das ist 10-mal langsamer als der Speicher selbst. Das Problem: Auch wenn man nur ein Byte braucht, werden 64 Byte in 8 Zyklen über DDR-RAM gelesen. Dann wandert die Information durch die Caches, die ebenfalls Verzögerungen haben bis zu 40 Takte beim L3-Cache. Wer programmieren kann, kann sich mal an folgendem versuchen:

Bei der zweiten Methode werden Caches ausgetrickst, die Geschwindigkeit kann um den Faktor 100 einbrechen.

29.1.2018: Nachlese zum letzten Arianestart L241

Beim letzten Start der Ariane 5 ist etwas schief gelaufen, diesmal hat sogar Israel das gefürchtete Buzzword Anomaly genutzt. Was ist passiert? Die Bodenkontrolle bekam zuerst mit, das die Telemetrie abriss. Als die ECA aus dem Funkbereich einer Bodenstation herauskam, sollte sie schon vorher von der nächsten erfasst werden, das war nicht der Fall. Die Radarmessungen bis dahin bestätigten aber das sie korrekte Höhe und Geschwindigkeit hatte. Dann gab es bange Minuten, kurze Zeit später konnten die Satellitenbetreiber aber vermelden, dass sie Kontakt mit ihren Satelliten herstellen konnten, die waren also korrekt ausgesetzt worden.

Der Telemetrieverlust ist nicht so außergewöhnlich, ich verfolge ja nicht alle Starts im Detail, aber das gab es schon mal bei einer Ariane und einer Vega. Europa hat eben keine Satelliten im Orbit die permanent erreichbar sind, wie die NASA das TDRS-System das auch für kommerzielle Raketenstarts zur Verfügung steht. Bei ungünstiger Lage des Transponders zur Bodenstation kann es sein, dass der Telemetriestrom abreist. Doch da Ariane nach dem Start autonom ist, also ihr eigenes Programm absolviert hat sie schon früher die Satelliten korrekt ausgesetzt.

Korrekt war der Orbit diesmal aber nicht. Geplant war ein 250 x 45.000 km x 3 Grad Orbit. Erreicht wurde ein 235 x 43200 x 20,6 Grad Orbit. Das bedeutet, dass Ariane 5 nach dem Start falsch abgebogen sein muss. Geplant war ein Start mit einem Azimut von 90 Grad oder direkt nach Osten. Aufgrund der Erdrotation nähert sich die Rakete dabei dem Äquator während der 35 Minuten die die Mission dauert und die Bahnneigung nimmt von 5,2 auf 3 Grad ab. Ariane muss irgendwann den Winkel auf 20,6 Grad geändert haben. Dazu reicht ein einziger kleiner Impuls am Anfang, genauso wie wenn man einmal falsch abbiegt, man beim Weiterfahren eine immer größere Abweichung von der Sollbahn bekommt. Ich vermute mal das irgendjemand den Bordcomputer falsch programmiert hat. Würde mich nach den mir schon bekannten Pannen bei europäischen Missionen die auf Programmfehlern beruhen (Ariane 501, Verlust von Schiaparelli) nicht wundern. Vielleicht gibt es auch einen Zusammenhang mit dem Orbit: Das ist soweit ich weiß der erste supersynchrone Orbit. Dazu noch später mehr. Als Folge des Abbiegens nahm der Abstand zum Äquator immer weiter zu. Die Empfangsstation liegen aber am Äquator an der afrikanischen Westküste und in Zentralafrika, es gab mal eine Dritte in Ostafrika, doch ob die noch in Betrieb ist weiß ich nicht. So war die ECA (die Zentralstufe ist schon vor der Küste Afrikas wieder abgetrennt worden) außerhalb des Empfangsbereiches.

Das Positive: beide Satellitenbetreiber haben erklärt, dass ihre Satelliten wohlauf sind und auch ihren Zielorbit erreichen können. Es gibt eine Untersuchung, wie beim kürzlich erfolgten Start von SpaceX bei dem auch etwas nicht so richtig lief macht man aber normal weiter und bereitet den nächsten Start vor.

Ich bin mal gespannt, wie Jonathan McDowell den Start einordnet. Ich benutze ja sein Launchlog als Datenbasis für Auswertungen und da fiel mir auf das gerade bei SpaxeX-Arianespace die Bewertung doch recht komisch ist. Von den Falcon 9 Starts bis Ende Letztes Jahres ist nur der CRS-7 Flug von 2015 als Fehlstart eingetragen. Die Bodenexplosion 2016 nicht. Das kann ich noch verstehen, eine explodierte Atlas bei einem Testcountdown von 1959, der bisher einzige Fall im Westen, wo das vorher auftrat, ist auch nicht dabei. Bei Ariane 5 weist er aber 501, 502, 510 und 517 als Fehlstarts aus. Wenn man als Kriterium nimmt „Orbit nach Vorgaben nicht erreicht“ dann wäre der Jungfernflug und CRS-1 in beiden Fällen genauso ein Fehlstart wie 502 und 510 mit jeweils Abweichungen vom Zielorbit aber Erreichen fast des Zielorbits. Nimmt man das Kriterium „Satelliten gehen verloren“, dann wäre CRS-1 genauso ein Fehlstart wie 510, in beiden Fällen konnte eine von zwei Nutzlasten mit eigenem Antrieb noch den Zielorbit erreichen, die Zweite nicht. (Bzw. in beiden Fällen hat man es gar nicht erst probiert sondern sie gleich als Versicherungsfall gemeldet).

Nun haben wir einen Start, der wie immer, als 100%-Erfolg von SpaceX hingestellt wird, aber die Nutzlast versenkt hat und wir haben einen Orbit mit falscher Inklination, der aber keine Auswirkung auf die Satelliten hat. Ich bin gespannt.

Nun zum Orbit selbst. Ich habe mich über den supersynchronen Orbit gewundert. Er dient normalerweise dazu, für den Satelliten Treibstoff zu sparen. Jede Trägerrakete, die nicht am Äquator startet, hat eine minimale Bahnneigung, die nicht ohne hohen Treibstoffverbrauch unterschritten werden kann und von der geografischen Breite abhängt. Da bei geostationären Satelliten die Bahnneigung 0 sein muss, muss diese Bahnneigung abgebaut werden. Der Geschwindigkeitsaufwand ist um so kleiner, je langsamer sich der Satellit bewegt. Also macht man Folgendes: man startet den Satelliten in eine supersynchrone Bahn, deren Apogäum oberhalb des GTO (35.790 km) liegt. Üblich beim Cape sind 66.000 bis 80.000 km. Im Apogäum hebt man dann das Perigäum an und baut die Inklination ab. Da dort die Geschwindigkeit viel kleiner als im GTO ist, braucht man weniger Treibstoff dafür. Zuletzt muss man dann den Orbit wieder auf den des GEO absenken. In der Summe ist das für den Satelliten trotzdem günstiger und inzwischen macht sogar die Proton solche Manöver um die Nutzlast um rund 10 % anzuheben. Der einzige Haken: Die Gesamtbilanz ist schlechter. Was der Satellit einspart, muss die Trägerrakete etwa doppelt so stark aufbringen. Doch wenn man sowieso nicht die maximale Nutzlast ausnutzt, ist das kein Problem.

Bei Ariane 5 mit nur 3 Grad Abweichung erscheint mir dieses Manöver als eher mehr Treibstoff verbrauchend als nützlich. Also habe ich es mal durchgerechnet:

Bahn

250 x 35.790 x 3 Grad

250 x 45.000 x 3 Grad

235 x 43.200 x 20,6 Grad

Anpassung Inklination und Perigäum

1477,8 m/s

1.318 m/s

1.510,5 m/s

Absenkung Apogäum


147,8 m/s

121,8 m/s

Summe

1477,8 m/s

1465,7 m/s

1633,5 m/s

Der supersynchrone Orbit ist tatsächlich günstiger, wenn auch um nur 12 m/s. Die Satelliten müssen nun 150 m/s mehr aufbringen. Für den mit Ionenantrieben ausgestatteten SES-14 kein Problem, der mit chemischem Treibstoff ausgestattete  Al Yah 3  wird wohl eine reduzierte Lebensdauer haben. Doch auch er hat elektrische antriebe, allerdings zur Lagereglung. Die Lebensdauer von SES-14 wird auf jeden Fall nicht beeinflusst, das wurde schon verlautbart.

Meine Vorhersage: das Abweichen war relativ früh, da man je später man dies tut um so mehr Treibstoff für die Winkeländerung braucht, da die Rakete dann schneller ist. Die Umlaufbahnen wurden ja erreicht, der Treibstoff dafür reichte also noch aus. Da die Nutzlasten 9,123 t wogen bei maximal 10,865 t Nutzlast kann bei einem 20,6 Grad Winkel (dV = 37,5 % der momentanen Geschwindigkeit für Winkeländerung) das nur sehr früh in der Aufstiegsphase erfolgt sein als Ariane 5 noch langsam war, ich würde tippen noch, während die Feststoffbooster brannten.

27.1.2018: Satzungen, Trennungen von Amt und Mandat und Nachverhandlungen.

Ich denke ich schiebe heute mal wieder einen kleinen Blog über Politik ein. Es gibt ja da einige Dinge in der letzten Zeit, die man kommentieren könnte.

Fangen wir mit den Grünen an. Da ging gestern durch die Meldungen, dass sie eine Satzungsänderung beschlossen haben: Die Aufhebung der Trennung von Amt und Mandat. Die Grünen haben ja einige verschiedene Statuten, die ich nicht verstehe, daher auch der heutige Blog, aber das halte ich für eines, das sie beibehalten sollten und das hat einen guten Grund. Wenn ein Politiker ein Amt hat so wird er in der Öffentlichkeit mit diesem verknüpft. Heute Morgen sagte Karrenbauer, das man nichts mehr in den Koalitionsgesprächen nachverhandeln kann – das tut sie als CDU-Vorstand, nur kenne ich sie eben als Ministerpräsidentin. Selbst die Nachrichten können anscheinend nicht trennen, da heißt es überall „CDU Chef Kanzlerin Angela Merkel sagte ...“. Hat das nun die Kanzlerin gesagt als Regierungschef oder die CDU-Chefin? Bei Bundespolitikern ist das noch schlimmer als bei Landespolitikern. Wenn Seehofer mal wieder poltert, weiß jeder das er das nicht als Ministerpräsident von Bayern, sondern als CSU-Chef tut.

Meine Meinung: ein politisches Amt in einer Regierung und in einer Partei sollten sich gegenseitig ausschließen. Zum einen um eine Beeinflussung der Regierung zu verkleinern und zum zweiten, weil das schon ein Vollzeitjob ist.

Das zweite was mir immer bei den Grünen aufstößt, ist dieses Proporzdenken. Es muss immer eine Frau und immer ein Mann sein, es muss immer ein Fundi und ein Realo sein. Die Frauenquote war vielleicht mal sinnvoll, als es kaum Frauen in der Politik gab, aber heute? Beiden Fundis und Realos kann man natürlich unterschiedlicher Meinung sein. Ich bin in dem Schema wohl ein Realo. Was nützt die tollste grüne Politik, wenn sie so extrem ist, dass man damit keinen Koalitionspartner findet, und man sie so nie in die Praxis umsetzen kann. Auf der anderen Seite braucht man in jeder Partei Leute die Visionen haben, ein Langzeitziel, das man erreichen will, jenseits von dem, was man gerade umsetzen kann. Wenn man das aufgibt, dann ist man da, wo die CDU heute ist: bei Tagespolitik die wie ich gerade feststelle ja schon die Visionen anderer Parteien, wie die der SPD (Bürgerpolitik, Steuergerechtigkeit) ablehnt. Die Frage ist: Muss man aber deswegen Proporz machen? Kann man nicht innerhalb einer so großen Partei jemanden finden, der für beide „Flügel“ akzeptabel ist, der beide Positionen vermitteln kann oder noch besser eine Synthese hinbekommt. Man gewinnt ja nichts, wenn man zwei Vorsitzende hat, die jeweils unterschiedlicher Meinung sind. Einmal Fundamentalposition, einmal das was umsetzbar erscheint. Wenn ich dann von einer Partei zwei Positionen höre, soll ich mir da eine aussuchen oder wie läuft das?

Warum verständigt man sich nicht auf einen Kandidaten den beide Gruppen akzeptieren können oder warum kann ein Realo nicht auch die Fundi-Meinungen vertreten? Es muss ja eine gemeinsame Parteilinie geben, sonst könnte sich gleich die Partei spalten. Meine Ansicht: ein Parteivorsitzender, ein Fraktionsvorsitzender reicht.

Dann gibt es das knappe Votum für Koalitionsgespräche bei der SPD, das die Jusos nicht akzeptieren. Sie rufen zu kurzfristigem Eintritt in die SPD auf. Hat in BW schon gefruchtet: 800 Neueintritte in wenigen Tagen, bei nur 36.800 Mitgliedern immerhin 2,2 %. Bei 59,8 % beim letzten Ergebnis würde der Trend über weitere 4 Wochen ausreichen das Votum kippen zu lassen. Vor allem wird es nun spannend. Die CDU verlautbarte ja schon, man könne nicht mehr nachverhandeln. Aus CDU Sicht klar und auch nachvollziehbar. Das Problem nur: Bei einem knappen Votum und dem Versprechen „Wir bessern nach“ kann dann der Basisentscheid gegen die Groko ausgehen wenn nichts mehr erreicht wird. Die CDU-Position ist für mich noch unverständlicher als wie bei den abgelehnten Positionen ja welche dabei sind die eigentlich jeder für vernünftig hält. So die Bürgerversicherung: Hat nicht jeder recht auf eine medizinische Behandlung? In dem Sinne wurden ja mal vor über 100 Jahren die Sozialversicherungen geschaffen. Damals ging es nur um Arbeitnehmer, weil sich besser Verdienende die Medizin leisten konnten. Heute kann diese so viel kosten das auch Selbstständige versichert sind, nur schlagen dann die Versicherungen deutlich zu wenn es Risiken gibt oder man einfach alt ist. Trotzdem gibt es immer noch eine Bevorzugung von Privatpatienten. Eine Grundsicherung die auch einen Facharzttermin in annehmbarer Zeit beinhaltet sollte es für alle geben. Man sollte das was man dann mehr haben will privat absichern. Das geht ja heute schon. Das ganze ist natürlich nur ein Aspekt. Wir haben auch eine gezielte Verknappung. Der NC in Medizin ist deswegen so selektiv, weil nur die wenigsten studieren dürfen und das obwohl es einen Fachärztemangel und einen Mangel an Ärzten auf dem Land gibt. Meine Lösung: lasst mehr studieren und es gibt mehr Ärzte. Damit mehr Fachärzte und wenn die vielen Ärzte in der Stadt durch Konkurrenz ihren Praxen nicht mehr voll bekommen, dann gehen auch wieder welche aufs Land.

Bei der kalten Progression gibt ja sogar der ehemalige Finanzminister zu, dass sie ungerecht ist, doch weil sie Steuern einspielt, tut man nichts. Zudem hatten wir mal einen Spitzensteuersatz von 50%, bis die FDP die Senkung durchsetzt. Komischerweise hat das in den letzten 20 Jahren niemand wieder rückgängig gemacht.

Aber zurück zum Thema Koalitionsgespräche. Es gibt für die CDU zwei Möglichkeiten: Entweder man bleibt bei dem Standpunkt: „Was besprochen ist gilt“. Dann gibt es das Risiko das die Basis der SPD die Koalition ablehnt. Neuwahlen wären die Folge. Ob das so sinnvoll ist. Dann steht nämlich diesmal die CDU als die Partei die die Verhandlungen scheitern lies. Vor allem hat sie es in zwei Verhandlungen nicht fertiggebracht eine Koalition zu zimmern. Erfolg sieht anders aus und ich denke bei Neuwahlen würde die CDU verlieren, was die Koalitionsfrage danach noch schwieriger macht.

Sie könnten auch Nachgeben, mit dem Risiko das die eignen Hartliner dann innerparteiliche Opposition machen. Im Prinzip gibt es mit der CSU ja schon eine Opposition in der Koalition. Ich habe es ja schon erwähnt, die Partei geht mir inzwischen so auf den Senkel. Nicht nur das sie lauter Dumpfbacken in der Spitze haben, sondern auch weil sie permanent den Regierungskurs torpedieren und in der Bundesregierung ja nur Politik machen wollen die nur ein Bundesland bevorzugt. Es heißt bei den ja auch nicht CSU-Fraktion, sondern Landesgruppe, also ob sie mehrere davon hätten. Ich habe ja schon mal vorgeschlagen, dass die CDU in Bayern einen Ortverband gründet und die CSU sich dafür bundesweit ausbreitet. Das würde das Problem das sie nur Politik für Bayern machen lösen und vielleicht würde es einige Leute bewegen von der AFD in die CSU zu schwenken, die man dann als rechten Flügel der CDU ansehen könnte.

30.1.2018: Die Lösung für ein überflüssiges Problem: Was passiert wenn man Kerosin durch Methan ersetzt?

Derzeit ist Methan en Vogue. Es verspricht einen etwas höheren spezifischen Impuls als Kerosin, erfordert aber keine so starken Änderungen an der Rakete, als wenn man von Kerosin auf Wasserstoff wechselt.

Da es viele Fälle gab in denen man nur in einer Rakete das Triebwerk austauschte, bei der Atlas z. B. dreimal habe ich mir gedacht, was wäre wenn man nur das Triebwerk tauscht, die Tanks aber so lässt wie sie sind, lediglich die Größe anpasst. Das wäre denkbar in der Atlas, aber auch Antares. Auch SpaceX wäre es zuzutrauen.

Also Vorgabe: Tankvolumen bleibt gleich, Volumen von LOX / Kerosin und LOX / Methan kann aber unterschiedlich sein, schon alleine wegen der unterschiedlichen Stöchiometrie.

Zuerst ohne Rechnung meine Einschätzung nur mit logischem Denken verfasst:

Bei LOX/Kerosin liegt das Mischungsverhältnis meist bei 2,6 bis 2,8. Es wird bei Methan höher sein, da dieses 4 Wasserstoffatome pro Kohlenstoffatom hat, bei Kerosin erwarte ich bei einem Gemisch von Aliphaten und Aromaten ein Verhältnis von unter 2. Das heißt man braucht weniger Methan als Kerosin. Das fängt einen Hautnachteil des Methans auf – seine niedrige Dichte von 0,42 g/cm³ im flüssigen Zustand. Kerosin liegt bei 0,82 bis 0,85. Trotzdem wird die Treibstoffzuladung kleiner sein. Das wird den Zugewinn an spezifischem Impuls, der bei maximal 300 m/s liegt senken, den so steigt der Strukturfaktor an. So wird die -nutzlast nicht so viel höher sein als gedacht. Bei einer ersten Stufe ist zudem der Effekt nicht so hoch, nur gibt es sehr wenige LOX/Kerosin Oberstufen, bei denen dann der Gewinn recht hoch wäre. Ich schätze daher den Gewinn klein ein.

Nachgerechnet

Als Rechenbeispiel habe ich mir die Atlas Erststufe ausgesucht mit diesen technischen Daten:

Parameter

Wert

Startmasse:

305.143 kg

Trockenmasse;

21.053 kg

Mischungsverhältnis LOX/Kerosin

2,72

Spezifischer Impuls Vakuum

3315 m/s

Expansionsverhältnis:

38,9

Brennkammerdruck:

266,8 bar

Schritt 1 ist die Simulation des Antriebs mit FCEA. FCEA liefert für eingefrorenes und freies Gleichgewicht Vakuumimpulse von 3527 und 3308 m/s. Da der Wert des eingefrorenen Verhältnisses fast gleich zum realen ist, nehme ich diesen als Maßstab. Er muss für Methan dann nur um 2 % erhöht werden.

Verbrannt wird die Mischung in einem Überschuss von 1,252. Das soll auch für Methan so gelten. Bei der Gleichung:

CH4 + 2 O2 → 2 H2O + CO2

benötigt man 2 Mole O2 um ein Mol Methan umzusetzen. Bei den Atommassen von 32 bzw. 16 beträgt das stöchiometrische Mischungsverhältnis 4 zu 1. Reduziert um 1,25 wird es dann im Verhältnis 3,2 verbrannt.

FCEA berechnet für diese Mischung nur spezifische Impulse von 3454 / 3615 m/s. Also wenn ich die Faktoren des RD-180 übernehme real 3461 m/s. Das ist nicht viel mehr. Schaut man sich die Bilanz an, so sieht man dass noch viel Energie nicht umgesetzt ist. Es gibt viel freien Wasserstoff. Bei größerem Expansionsverhältnis sieht es besser aus, doch das ist bei einer Rakete die vom Erdboden aus startet nicht möglich, da ist schon das Sponsorenverhältnis von fast 40 ein Rekord.

Wie sieht es nun mit den Massen aus? Nimmt man eine mittlere Dichte von 0,835 für RP-1 an, so sieht die Bilanz für die Atlas CCB-Stufe so aus:

Parameter

Wert

Treibstoffmasse

284.090 kg

Davon LOX

207.222 kg

Davon Kerosin

76.368 kg

Volumen LOX (Dichte 1,14)

182,2 m³

Volumen Kerosin (Dichte 0,835)

91,5 m³

Gesamtvolumen:

273,7 m³

Mittlere Dichte:

1,038

Für Methan sieht es so aus: Bei dem Verhältnis von 3,2 zu 1 benötigt man für 1 t LOX 0,877 m³ Volumen und 313 kg Methan 0,745 m³ Volumen. Zusammen sind das 1,313 t Masse bei 1,623 m³ Volumen. Die mittlere Dichte beträgt nur 0,809. Im gleichen Volumen kann man so, leicht durch Dreisatz errechenbar 221,4 t Treibstoff mitführen, oder 28,3 % weniger.

Die Methan Atlas

Ich habe nun die kleinste Atlas Version, die Atlas V 401 damit neu berechnet. Bei ihr ist ohne Feststoffbooster der Einfluss der ersten Stufe am größten. Bei gleichen Aufstiegsverlusten komme ich auf folgende Werte:

Parameter

Atlas 401

Methan Atlas 401

Methan Atlas 401, 1600 m/s Verluste

Nutzlast Fluchtbahn

3.300 kg

2.703 kg

3.557 kg

Nutzlast GTO

4.750 kg

3.962 kg

4.831 kg

Nutzlast LEO

9.797 kg

8.380 kg

12.040 kg

Die Methan-Atlas liegt wegen der niedrigeren Treibstoffzuladung schlechter. Allerdings wäre sie in der Realität nicht so viel schlechter. So hat die Atlas 401 sehr hohe Aufstiegsverluste bei der hohen LEO-Nutzlast (2600 m/s gegenüber 2090 m/s bei GEO). Aufgrund der kleineren Treibstoffzuladung sollten diese viel kleiner sein, so wie bei der alten Atlas. Die Atlas III hatte bei gleichem Triebwerk nur eine Stufe mit 197 t Startmasse, aber auch Verluste von nur 1350 m/s. Nimmt man 1.600 m/s Verlust an, ein typischer Wert für eine zweistufige Trägerrakete, dann kommt man beim LEO wo der Einfluss am größten ist auf deutlich höhere Werte, beim GTO und Fluchtgeschwindigkeit auf nur wenig höhere Werte. Der LEO-Wert ist aber hypothetisch, die Centaur kann so schwere Nutzlasten nicht transportieren, dazu braucht man die DEC-Centaur mit Verstärkungen, was die Nutzlast dann wieder etwas reduziert.

In der Summe ist der Gewinn gering. Natürlich bringt der Übergang zu Methan etwas, aber dazu muss man dann die ganze Stufe neu konstruieren, inklusive neuer Tanks. Bei der Atlas kommt noch dazu dass die Rakete einen sehr hohen Strukturfaktor von 15 hat. Die alte Atlas in der D/G Version kam auf einen von 19. Die ganz frühen Exemplare, allerdings auch nicht ausgelegt auf schwere Oberstufen, auf noch bessere Werte. Der hohe Strukturfaktor wirkt sich ebenfalls negativ aus, weil die Tanks nicht leichter werden wenn Methan reingefüllt wird. Ihre Festigkeit ist auf den maximalen Innendruck ausgelegt und der bleibt gleich (sonst wären es auch unterschiedlich dicke Tanks bei Kerosin und LOX, denn LOX ist ja heute schon dichter als Kerosin, es sind aber identische Tanks für beide Treibstoffe). Bei Strukturfaktoren wie 25 bis 30 wie sie SpaceX reklamiert fällt dann der Nachteil, das die Faktoren durch die niedrigere Dichte um 28,3 % sinken nicht so ins Gewicht.

1.2.2018: Explorer 1

Heute jährt sich der 60-ste Jahrestag des ersten erfolgreichen US-Satelliten. Übrigens heute liebe NASA, nicht gestern. Starts werden weltweit in UTC angegeben und nicht in US-Zeit. Selbst wenn ihr die US-Zeit nehmt, dann bitte welche? Ihr hättet ein Problem, wenn der Start kurz nach Mitternacht Ostküstenzeit stattfindet und dann nach Westküstenzeit noch am Vortag stattfand. Auch wenn es im provinziellen Amerika undenkbar ist. Bei Starts gilt eben nicht „America First“. Der Startzeitpunkt war der 1.2.1958 3:47 UTC.

Explorer 1 war der zweite US-Satellit nach Vanguard 1. Zeit an ihn zu erinnern. Explorer 1 wurde von einer Juno gestartet. Das war eigentlich nur ein neuer Name für eine Jupiter-C. Die Jupiter-C war eine umgebaute Redstone. Ihre Treibstoffmischung war energiereicher, dafür wurden die Tanks leicht verlängert, um mehr mitzuführen. Die Redstone hatte schon ihr Testprogramm teilweise durchlaufen und die ersten Exemplare wurden gerade stationiert. Auf sie wurden in einem Köcher Bündel von Sergant-Feststoffraketen gesetzt. Sie wurden ringweise gezündet, zuerst der äußere Ring, dann der Innere und zuletzt die Letzte in der Mitte mit dem Satelliten als Spitze.

Die Kombination wurde schon genutzt um Materialproben des Hitzeschutzschildes für Atomsprengköpfe auf die Geschwindigkeit einer ICBM zu bringen, die nur wenig kleiner als die Orbitalgeschwindigkeit ist. Dabei wurde bei Testflügen extra Ballast mitgeführt, um zu verhindern, dass man so "unabsichtlich" einen Satelliten in den Orbit bringt.

Die Redstone hatte die Aufgabe, das Oberstufenbündel an eine bestimmte vorher berechnete Position und Höhe zu bringen, da dieses überhaupt nicht steuerbar war. Am Gipfelpunkt der ballistischen Bahn wird dieses gezündet und der Satellit erreicht einen elliptischen Orbit. Elliptisch, weil man lieber Überschussgeschwindigkeit hatte, als keinen Orbit zu erreichen. Das ist nach heutigen Maßstäben primitiv, doch damals als schon die Zündung von Raketen in der Hälfte der Fälle scheiterte war die Einfachheit ein Vorteil. Das Bündel wurde durch Rotation schon beim Start stabilisiert.

Die Jupiter-C hätte einen Satelliten schon ein Jahr vorher starten können, sie war so lange schon einsatzbereit. Aber sie dürfte nicht. In den USA gab es zwei gewichtige Gründe, die dagegen sprachen. Das eine war der lobenswerte Vorsatz, dass man die Erforschung des Weltraums zivil starten wollte, man wollte eine „Militarisierung“ vermeiden, indem man eine zivile Rakete nutzte. Die Redstone wurde aber als Mittelstreckenrakete entwickelt. Das zweite war, das die Redstone weitestgehend eine verbesserte A-4 war und fast ausschließlich von den Deutschen um Wernher von Braun entwickelt wurde. Der erste US-Satellit sollte auch von einer US-Rakete gestartet werden.

Das Problem nur: Die dafür vorgesehene Rakete Vanguard war noch im Erprobungsprogramm und sie war völlig unerprobt. Beides keine guten Voraussetzungen. So übersprang man beim ersten Startversuch auch gleich ein paar Schritte und er ging schief – interessanterweise schon bei der ersten Stufe, neu waren eigentlich nur die oberen.

Erst nach dem Fehlstart durfte von Braun einen Satelliten starten. Er breitete die Juno in weniger als 57 Tagen zum Start vor. Er hatte 60 Tage zugesagt, sein Chef, der an das Tempo nicht glauben wollte, gab gegenüber dem Minister 90 Tage an. Explorer 1 wog nur 8 kg, hatte anders als Sputnik 1 aber schon Instrumente an Bord, die Anzeichen für einen Strahlungsgürtel lieferten. Er war nur batteriebetrieben und arbeitete bis zum 28.Februar. 31 Tage waren durch die Batterie möglich.

Beide Träger Juno und Vanguard waren nur kurz im Einsatz. Es gab einige Gründe, die gegen sie sprachen. Ihre Nutzlast war klein. Sie waren auch nicht sehr zuverlässig. Zwar gelang der erste Start der Juno, aber von den 6 Starts insgesamt nur 3. Die USA waren zwar die Zweiten, doch sie überholten schon 1958 die UdSSR bei den Starts, starteten die ersten militärischen Satelliten und zahlreiche Forschungssatelliten. Von 28 Starts 1958 erfolgten nur 5 von Russland.

Das nächste historisch wichtige Datum, das sich jährt, wird der erste Start einer Raumsonde Pionier 0 oder Able 1 am 17.8.1958 sein. Hier waren die USA vor Russland am Start. Leider aber nicht erfolgreich.

Bis dahin werden meine beiden Bücher über Raumsonden verfügbar sein. Da gibt es einige Neuigkeiten. Das Manuskript von Band 2 ist fertig und beim ersten Korrekturleser. Bei Band 1 gibt es eine Verzögerung. Der zweite Korrektor hat sich nicht mehr gemeldet, nachdem er Anfang Dezember den Text bekam. Ich habe daher vor einer Woche Mario gebeten, der sich ebenfalls gemeldet hat, sich des Buchs anzunehmen. Es wird mit Band 1 also noch dauern. Immerhin: Seitenanzahl und Preis stehen fest. Band 1 hat 392 Seiten, Band 2 424. entsprechende Preise (die sich bei mir nach einer prozentualen Marge am Verkaufspreis orientieren) 24,99 und 26,99 Euro. Die Aufteilung 1993 war richtig, der Umfang ist fast gleich. Meiner Ansicht nach sind sie gelungen. Sie sind kurz, aber informativ. Viel kürzer geht zumindest bei mir nicht. Jetzt widme ich mich aber erst mal anderen Sachen. Mal wieder was programmieren, auch mal wieder Spielen, wie man sieht, gibt es auch häufiger Blogs.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99