Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 521: 13.2.2018 - 20.2018

13.2.2018: Instructions per Cycle – in der Intel Welt

Den heutigen Artikel scheibe ich ergänzend zu meinem Grundlagenartikel über den Zuwachs an Geschwindigkeit bei Intel Prozessoren. Diesmal dreht sich alles um ein Kriterium: den IPC, die Abkürzung von Instructions per Cycle (Anweisungen pro Maschinenzyklus). Da geht schon das erste Erklären los. Was ist ein Maschinenzyklus? Jeder Prozessor hat einen Taktgeber. Bei jedem Taktschlag tut er etwas. Ein Maschinenzyklus besteht aus mehreren Takten. Der einfachste Zyklus aus drei Teilen: Daten aus dem Speicher holen, Befehl aus den Daten herausholen, Befehl ausführen. Die Definition eines Zyklus war früher wichtig, weil er die Geschwindigkeitsanforderungen an das Speichersystem definiert. Im obigen Basiszyklus von drei Takten wird nur im ersten Takt auf den Speicher zugegriffen, dann reicht für diesen eine Zugriffszeit, die nur einem Drittel der Geschwindigkeit des Mikroprozessors entspricht. Die meisten Prozessoren in der unteren Übersicht haben einen IPC-Wert größer 1, das heißt, die obige Definition des Taktzyklus ist nicht anwendbar, weil der Prozessor durch interne Parallelisierung (Pipeline, Parallelverarbeitung) mehrere Befehle pro Takt ausführt.

Der Dhrystone ist ein Benchmark. Jeder Benchmark dient dazu, die Geschwindigkeit eines Computers zu messen. Dazu einige Bemerkungen über Faktoren, die beim Beurteilen eines Benchmarks wichtig sind. Zuerst einmal ist wichtig, welche Bedingungen beim Lauf des Benchmarks erfüllt sind. Selbst beim selben Binärcode kann es verschiedene Resultate auf unterschiedlichen Computern geben. Das hängt vom Betriebssystem ab. Das Programm benötigt Funktionen des Betriebssystems, um auf Dateien oder Geräte zuzugreifen, wie den Monitor. Beim Dhrystone Benchmark gibt es kaum Benutzung von Betriebssystemfunktionen. Trotzdem differieren die Ergebnisse eines Benchmarks unter Windows, MacOs und Linux leicht. Der Grund ist das heutige Betriebssysteme Multitasking-Betriebssysteme sind. Selbst wenn der Benchmark das einzige Programm ist, das läuft, dann gibt es noch etliche andere Prozesse, die im Hintergrund laufen und ebenfalls Ressourcen benötigen. Dazu kommt je nach Auslegung des Benchmark auch, wie groß und schnell der Speicher ist. Wenn ein Benchmark viel auf den Speicher zugreift, so kann dies wesentlich für die Gesamtgeschwindigkeit sein. Das ist bei diesem Benchmark aber nicht der Fall.

Der wichtigste Faktor ist heute der Compiler. Dhrystone wurde in C geschrieben, der populärsten Programmiersprache. Für sie gibt es zahlreiche Compiler. Ein Compiler analysiert den Quelltext und übersetzt ihn in Maschinensprache. Die Algorithmen sind dazu unterschiedlich. Bei Intels Prozessoren erzeugen meist auch Intels Compiler den schnellsten Code. Sie kennen den internen Ablauf und die genauen Ausführungszeiten der Befehle, die heute nicht mehr absolut angegeben werden können, sondern oft von anderen Befehlen abhängen. Zudem gibt es je nach Prozessor noch Spezialbefehle. Schon der 8086 hatte „Stringbefehle“, die das sequenzielle Abarbeiten einer Bytekette beschleunigten. Die aktuellen Prozessoren haben Spezialbefehle, die das Verschlüsseln und Entschlüsseln nach AES beschleunigen und Rechenbefehle, die mehrere Zahlen auf einmal verarbeiten. Daher muss für einen Vergleich auch immer derselbe Compiler eingesetzt werden.

Die Bedeutung des Compilers geht noch weiter. Heutige Compiler optimieren den Quellcode. Das heißt, sie können eine ineffiziente Programmzeile durch eine effiziente ersetzen. Das kann sehr weit gehen. So ist in so alten Benchmarks der Code oft trivial. In einer Schleife wird z. B. immer dieselbe Berechnung durchgeführt, deren Ergebnis aber nie verwendet. Der Compiler erkennt das und die Schleife durch eine einzelne Anweisung ersetzen, in der nur der letzte Durchlauf durchgeführt wird. Bei den heutigen Prozessoren kann es sein, das wenn in einer Schleife deren Anweisungen unabhängig sind, sie durch den Compiler in mehrere Teilschleifen aufgespaltet wird und diese auf die Kerne verteilt werden. Der Codeteil läuft so viel schneller.

Das Problem der optimierenden Compiler gab es schon in den Achtzigern, als der Dhrystone Benchmark entstand. Auf den Dhrystone 1 folgte der Dhrystone 2, der Code enthielt, den man nicht so gut optimieren konnte. Seitdem ist der Code aber gleich geblieben. Heutige Compiler haben daher kein Problem den Code aus den Achtzigern zu optimieren.

Die Bedeutung für die Praxis

Wenn sie Software kaufen, dann können sie sich sicher sein, dass diese ohne viele Optimierungen erstellt wurde. Der Grund ist einfach: Sowohl Intel wie AMD haben zahlreiche Prozessoren im Angebot. Bei Intel reicht das von einfachen Atoms in den Celerons mit einem „J“ in der Bezeichnung, für einen Verkaufspreis von 20 bis 30 Euro bis zu Xeon Serverprozessoren mit Verkaufspreisen von mehreren Tausend Euro. Sie unterscheiden sich in Zahl der Prozessorkerne, Taktfrequenz aber auch interner Architektur. Die Atoms haben z.B. nicht die seit dem Pentium Pro eingeführte Out-of-Order-Architektur. Je teurer ein Prozessor ist, desto mehr Spezialfähigkeiten hat er. 2018, während ich diesen Beitrag schreibe, gibt es z.B. bei den Fließkommaeinheiten, die Generationen AVX2, AVX3 und AVX512. Ein Programm, das AVX512 nutzt, würde nur auf den teuersten Prozessoren von Intel laufen, aber allen anderen mit einem Fehler abbrechen. Noch problematischer: AMD kopiert nicht die Prozessoren von Intel, sondern entwickelt eigene. Der Kernbefehlssatz ist identisch, doch AMD hat eigene Befehle, die es bei Intel nicht gibt und umgekehrt.

Daher wird ein Programm so kompiliert, dass es auf möglichst vielen Prozessoren läuft ohne spezielle Optimierungen. Wer Programme für eine bestimmte Architektur erstellt, das ist z.B. bei Firmen der Fall, wo viele Computer desselben Typs vorhanden sind oder für Supercomputer, kann man diese Optimierungen anwenden. Aufgrund dessen sollte man beim Dhrystone Benchmark die „Nicht-Optimierte“ Version als Referenz für die Geschwindigkeit nehmen.

Der Dhrystone Benchmark

Der Dhrystone Benchmark ist sehr alt, er stammt von 1984. Das ist ein Nachteil, aber auch ein Vorteil. Ein Nachteil, weil er nur grundlegende Fähigkeiten der CPU prüft, zudem ein synthetischer Benchmark, nicht ein konkretes Problem, das ausgeführt wird oder gar die Geschwindigkeit eines Anwendungsprogramms. Das wäre aber nicht möglich. Würde man z. B. die Geschwindigkeit eines Editors im Jahre 1984 messen, so wäre er 2017 gar nicht mehr ausführbar, da das Betriebssystem, z.B. MS-DOS heute nicht mehr nativ ausgeführt werden kann.

Trotzdem gibt der Dhrystone Benchmark die Geschwindigkeit eines Computers relativ gut wieder, weil die meisten Befehle eben die gebräuchlichsten sind und die gab es schon 1984. Bei diesem Benchmark liegt der Hauptaugenmerk auf Zeichenkettenoperationen, wie sie bei Textverarbeitung benötigt werden. Damit kann man Prozessoren über einen Zeitraum von 30 Jahren vergleichen. Die Ausgabe ist für heutige Verhältnisse etwas kryptisch, es sind VAX-MIPS. Vereinfacht gesagt gibt der Benchmark an, wie schnell der Prozessor verglichen mit einer VAX 11/780 ist. Die VAX 11/780 ist einer der bekanntesten und meistverkauftesten Minicomputer und er erschien schon 1977. 1984 erreichten die schnellsten Mikroprozessoren wie der 80286 oder 68000 die Geschwindigkeit einer VAX, wie der Dhrystone Benchmark belegte. Das war natürlich für das Ego äußert förderlich, kostete doch ein solcher High-Power-PC eine vierstellige Summe, während eine VAX 11/780 so groß wie eine Kommode war und im fünfstelligen Bereich lag. Allerdings hat Digital Equipment, Hersteller der VAX, wenig später auch eine VAX in PC-Größe auf den Markt gebracht.

Die Angabe „VAX-MIPS“ gibt an, dass der Programmautor annahm, dass eine VAX 1 Million Befehle pro Sekunde ausführt (MIPS: Million Instructions per Second). In der Realität führte die VAX aber nur 0,5 MIPS pro Sekunde durch. So decken sich auch die offiziellen MIPS-Angaben des Intel 80386 (9,6 MIPD bei 40 MHz) mit dem Messergebnis des Dhrystone Benchmarks (4,32 ~ 0,5 * 9,6).

Die Tabelle habe ich einer anderen Webseite übernommen. Ich habe mich auf einen Prozessor pro Generation beschränkt. Die Tabelle enthält zahlreiche Prozessoren, darunter auch verschiedene Taktfrequenzen eines Prozessors oder von verschiedenen Herstellern (früher wurden x86 Prozessoren auch von IBM, Cyrus und anderen Firmen gefertigt. Innerhalb einer Generation steigt die Geschwindigkeit aber meist linear mit der Taktfrequenz an.

Bei Intel hatten die Prozessoren zuerst Nummern (8086, 80286, 80386, 80486), dann Pentium (Pentium, Pentium Pro, Pentium II, Pentium III und Pentium 4). Das letzte Schema ist das der Core. Benennung. Nach einer Übergangszeit gibt es heute eine vierstellige Nummer. Die erste Ziffer gibt die Generation an. Aktuell im Januar 2018 ist die Ziffer „8“. Gefertigt wercen aber auch noch die Vorgängergeneration mit den Ziffern 6 und 7. Die letzten drei Ziffern dahinter geben die Typennummer an, hier gilt: je höher desto leistungsfähiger. Um das Ganze noch zu verkomplizieren, gibt es mehrere Serien. Celeron und Pentium stellen die Einstiegsklasse da, in der Icore Serie werden die Prozessoren in den Serien i3, i5 und i7 leistungsfähiger und ganz oben die Xeon Serie für Server.

Oberflächlich betrachtet gibt es einen enormen Geschwindigkeitsunterschied zwischen dem ersten Prozessor in der Liste, dem 80386 und dem Letzten, einem Prozessor der Haswell-Generation (er erschien 2014). Dieser Unterschied relativiert sich, wenn man die VAX-MIPS durch die Taktfrequenz teilt. Das Ergebnis habe ich in diesem ersten Schaubild zusammengefasst. Er gibt pro Prozessor die Angabe VAX-MIPS/MHz wieder. In Diagramm 1 für die nicht optimiere Version, in Diagramm 2 für die optimierte Version.

Es ist der „nicht-optimierte“ Wert, stellvertretend für normale Programme um den Faktor 4 gestiegen, der optimierte Wert etwa den Faktor 8. In beiden Diagrammen fällt der Pentium 4 auf. Seine Architektur war auf hohe Taktgeschwindigkeit optimiert, dafür nahm man eine langsamere Verarbeitung der Befehle in Kauf. Er hatte weniger Parallelität als sein Vorgänger, der Pentium III. Der Takt konnte auch rasch von 1,2 auf 3 GHz gesteigert werden, dann jedoch nur noch langsam. Der Pentium 4 erwies sich als technologische Sackgasse. Die heutigen Prozessoren der Core-Generation basieren auf dem Pentium M, der deswegen auch mit aufgeführt ist. Seine Architektur basiert aber letztendlich auf dem Pentium Pro. Betrachtet man das Diagramm und die Tabelle, so fällt auf, das bei nicht-optimierten Programmen seit dem Pentium Pro von 1995 also mehr als 20 Jahren ist der IPC-Wert von 0,46 auf maximal 0,542 gestiegen. Bei den optimierten Dhrystone sieht es besser aus, das liegt daran, dass seit der Core Generation es mehrere Kerne pro Prozessor gibt und der Compiler so den Code auf mehrere Kerne verteilen kann.

Betrachtet man nun die absolute Performance, so zeigt sich in Diagramm 3, dass der Anstieg lange langsam war. Die Taktfrequenzen stiegen anfangs langsam an. Der 8086 erschien 1978 mit maximal 8 MHz, in 15 Jahren konnte man ihn bis 1993 beim 80486 auf 50 MHz, also um den Faktor 6 steigern. Dann stieg der Takt einige Jahre lang rasant an, um im Jahr 2003 3.000 MHz zu erreichen – in zehn Jahren der Faktor 50. Damit war eine physikalische Grenze erreicht, da bei jedem Takt Transistoren Strom abgeben, steigt die Verlustleistung bei steigendem Takt rapide an. Diese Leckströme führten auch zum Ende der Pentium 4 Architektur die 7 bis 9 GHz erreichen sollte. Seitdem sind die Taktraten nur wenig angestiegen, was sich dann auch im Plateau in den letzten Jahren niederschlägt.

Dhrystone VAX-MIPS

In der Summe ist es heute so, dass ein aktueller PC der Skylake/Kabylake-Generation (2018 aktuell) zwar schneller aber nicht mehr signifikant schneller als einer der Ivy-/Sandybridge Generation von 2012/13 ist. Da seit 2017 AMD mit der Zen-Architektur wieder attraktive CPU‘s fertigt, setzt heute Intel eher auf mehr Kerne um sich besser zu positionieren, bisher aber nur im Spitzensegment.

15.2.2017: Sommerzeit, Groko und Nahles

Heute nur einen kleinen Einschiebeblog. Mein geplanter Blog über Ariane 6, Vega C und Vega lässt noch etwas auf sich warten, weil ich bei meiner Simulation noch nachbessern muss.

Der heutige Blog ist eine GroKo-Nachlese und beschäftigt sich mit der Sommerzeit. Fangen wir gerade mit dieser an. Die Sommerzeit gibt es schon lange. Sie wurde irgendwann mal Ende der Siebziger, Anfang der Achtziger in Deutschland eingeführt und dann blieb sie einfach. Seit 1997 ist sie nun vom EU-Parlament in der ganzen EU vorgeschrieben. Wie immer bei Provisorien: eingeführt sind sie schnell, abschaffen dauert. Das gilt nicht nur für Steuern wie Schaumweinsteuer (Finanzierung der kaiserlichen Flotte) oder Soli (Finanzierung der goldenen Wege in Ostdeutschland) sondern auch für Regelungen.

Nun soll das EU-Parlament über die Abschaffung beschließen. Das kann Jahre dauern. Dabei hat man sie mal eingeführt um Energie einzusparen, weil man weniger Strom für Beleuchtung braucht – überprüft hat dieses Postulat damals niemand. Inzwischen ist sie entkräftet und angesichts von LED und Leuchtstoffröhren anstatt den in den Siebzigern noch üblichen Glühbirnen ist der Effekt auch minimal.

Ich bin klar gegen eine Sommerzeit. Es ist jedes Mal eine Umstellung für den Körper und es ist völlig unnötig. Als Hauptvorteil wird immer genannt, dass es abends länger hell ist. In Umfragen wird das eigentlich als einziger Vorteil der Sommerzeit genannt. Doch das hat ja nicht primär was mit der Zeit zu tun, als vielmehr mit den Jahreszeiten. Es sind im Sommer eben die Tage länger. Da die meisten heute auch Gleitzeit haben, ist es auch kein Problem dann im Sommer einfach früher zur Arbeit zu gehen, dann hat man abends auch so länger hell. Wenn man das im Winter auch so macht sogar noch viel mehr davon. Wenn ich nach meinem Biorhythmus gehe, dann stehe ich Winter erst um acht auf, manchmal auch noch später. Im Sommer meist zwischen 6 und 7. Interessanterweise gehe ich immer zur gleichen Zeit ins Bett, irgendwann zwischen 11 und 12. Im Sommer brauche ich also 7 bis 8 Stunden Schlaf, im Winter 8 bis 9. Als ich noch festangestellt arbeiten ging, verschob sich auch entsprechend die Zeit, wenn ich am Arbeitsplatz erschien, zwischen 8:30 und 9:30 während der Jahreszeiten. Wenn die Tatsache, dass es abends länger hell ist so wichtig ist, dann kann man ja die Sommerzeit einfach auch im Winter belassen oder Deutschland rutscht in der Zeitzone einfach eine nach links, das hat den Vorteil, dass wir dann immer UTC haben und man nicht je nach Sommer oder Winter eine Stunde oder zwei hinzuzählen muss.

Kurzum: Wenn man nach dem Biorhythmus geht, braucht man keine Sommerzeit.

Das zweite Blogthema ist die GroKo. Die steht ja. Zufriedenheit gibt es nicht. Die Union meckert, weil sie zu wenige Ministerien hat, zumindest wichtige und man Inhalte aufgegeben hat. Die SPD ist auch nicht so richtig zufrieden. Zumindest die Jusos wollen immer noch die Abstimmung gegen die GroKo. Was die Ministerien angeht, kann die SPD zufrieden sein, die CSU ebenfalls, denn macht man eine einfache Rechnung so sieht es so aus:

Partei

Ergebnis Wahl 2017

Ministerien

Prozent/Ministerium

CDU

26,8

6

4,5

SPD

20,5

6

3,4

CSU

6,2

3

2,0

Die CSU hat für ihr mageres Ergebnis gut abgesahnt, hätte die CDU ein Ministerium mehr und die CSU eines weniger, so wären die Prozentangaben fast gleich (3,8 / 3,4 / 3,1 – die CSU steht immer noch am besten da). Das zeigt das Problem. Die CDU ist auf die CSU angewiesen, sonst reicht es nicht für eine Mehrheit im Parlament und lässt sich von ihr weitestgehend auf der Nase herumtanzen. Das war bisher kein Problem. Die Bayernpartei hat sich Ministerien rausgesucht, in denen man viel Geld nach Bayern verschieben konnte wie das Verkehrsministerium (2012 gingen 80 % aller Straßenbaugelder des Verkehrsministeriums nach Bayern) oder Landwirtschaft und hat sich aus der Bundespolitik weitestgehend herausgehalten. Seit die CSU aber gegen Flüchtlinge ist, macht sie auch Bundespolitik. Immerhin hat sie jetzt das dafür zuständige Ministerium bekommen.

Warum die CDU so wenige Ministerposten hat? Man braucht sie um die eigene Politik durchzusetzen, und auch wenn seitens der CDU dauernd der Hinweis kommt, im Koalitionsvertrag wären zu wenig eigene Positionen vertreten – was sind denn diese? Ich habe die CDU nur als Kontrapunkt zur SPD wahrgenommen. Sie hat nicht eigene Positionen, sie ist nur immer gegen alles, was von der SPD kommt. Wenn selbst die Kanzlerin als wichtigsten Grund sie zu wählen „Sie kennen mich“ nennt, dann sagt das schon alles aus. So gesehen kommt die CDU mit den wenigen Ministerien noch gut weg. Ich fand im Koalitionsvertrag übrigens nicht nur keine CDU-Positionen ich fand überhaupt wenig Konkretes. Da ganze soll ein Vertrag sein? Es ist eine Sammlung von Allgemeinplätzen. Zahlen vermisst man. Das Einzige was mich interessierte stand nicht drin (ich habe nach einem Wort mit „C“ bzw. „H“ je nachdem ob man den Deutschen oder fremdsprachlichen begriff nimmt gesucht).

Ansonsten glänzt die SPD durch Selbstzerfleischung. War Schulz schon nach verlorener Wahl und trotzdem GroKo-Gesprächen (obwohl er dies nach der Wahl verneinte) schon angeschlagen, so hat er sich nun selbst abgesägt. Wie kann man auf die Idee kommen, nachdem man Gabriel als Parteivorsitzenden beerbt hat, diesen vom Außenministerposten zu vertreiben? Das muss doch diesen verärgern. Vor allem, was treibt jemanden der mal Kanzler werden wollte an, dann den unwichtigen Posten des Außenministers anzustreben? Gut der Außenminister ist beliebt. Man muss sich wirklich Mühe geben da nicht beliebt zu sein. Aber er ist bedeutungslos. Denn so wenig die Kanzlerin irgendetwas im Inneren bewegen will, so sehr behält sie die Außenpolitik in ihrer Hand. Der Außenminister ist da mehr der Begrüßungsclown für zweitrangige Staatschefs oder andere Außenminister. Stattdessen bekommt die SPD das Finanzministerium – das wichtigste Ministerium in meinen Augen, denn da wird entscheiden, wie viel die anderen Ministerien an Geld bekommen. Warum hat er nicht diesen Posten übernommen? Der geht stattdessen an Olaf Scholz – den seit 2011 regierenden Bürgermeister von Hamburg. Während woanders in den Ländern Schulden abgebaut werden, stiegen sie, seit er an der Macht ist, um 20 %. Und so jemand soll ausgerechnet Finanzminister werden? Warum wird nicht Seehofer Flüchtlingsbeauftragter? Oder Berlins Bürgermeister verantwortlich für die Infrastruktur?

Zuletzt wird nun ja Nahles neue SPD-Chefin. Ich konnte meinen Ohren nicht trauen. Ausgerechnet Nahles? Die fällt eigentlich nur durch Entgleisungen auf. Ihre Pippi-Langstrumpf-Rede im Bundestag. Das Zitat nach der letzten regulären Sitzung der letzten Koalition „Und ab morgen gibt’s was auf die Fresse“ und natürlich die Bätschi-Rede. Ansonsten scheint sie viel zu schreien, so lange, dass sie dann teilweise heiser ist. Offensichtlich meint sie, dass Argumente besser verstanden werden, wenn sie geschrien werden. Nein Andrea. Nur wer unrecht hat schreit. Wer andere überzeugen will, macht dies mit Logik und Fakten. Als Ergänzung könnte sie ja mal einen Rhetorikkurs besuchen.

Zuletzt noch was zur FDP. Bei der hat sich Lindner ja über Seehofer als „Heimatminister“ lustig gemacht. Man bräuchte jetzt einen Digitalisierungsminister. Nee Michael braucht man nicht. Die völlig falsche Verwendung des Begriffs wird auch nicht besser, wenn ihn jeder wiederholt. Unter Digitalisierung versteht man die Überführung eines analogen Mediums in ein digitales Medium. Bücher kann man digitalisieren, Bilder, Tonaufnahmen. Ja man kann den Begriff auch auf Kommunikationsinfrastruktur anwenden, wie er in der Politik verwendet wird. Wenn Telefonleitungen von Analog auf Digital umgestellt werden. Doch das haben wir längst hinter uns: ISDN wurde schon vor 20 Jahren flächendeckend eingeführt, inzwischen werden die letzten analoigen Telefonanschlüsse abgeschaltet. Was gemeint ist, ist ein flächendeckendes Hochgeschwindigkeitsnetz. Also sprecht vom HSN (High Speed Network) oder wenn ihr einen deutschen Begriff braucht von den „Datenautobahnen“. So nannte man das, als das Internet aufkam, weil schon damals Politiker davon keine Ahnung hatten. Als 1994 Kohl über den Ausbau der „Datenautobahnen“ gefragt wurde, antwortete er „Für den Bau von Autobahnen sind neben dem Bund hauptsächlich die Länder zuständig!" Meiner Ansicht nach sind auch heute Politiker nicht viel weiter, wenn es um Netze, Datensicherheit und Überwachung geht.

17.2.2018: Alle Jahre wieder …

Irgendwie ist es schon Routine. Sobald ein neuer Präsident im Amt ist, kündigt er ein neues Projekt an. Als wir da hätten:

Okay, wer genau hinsieht, stellt fest, dass sich das nicht immer mit dem Amtsantritt deckt. Der früheste Zeitpunkt, bei dem ein Präsident aktiv sein kann, ist das Budget zwei Jahre nach seinem Amtsantritt. Das sieht man derzeit. Die NASA hat jetzt ihr Request für 2019 veröffentlicht. Verabschiedet wird es meist im dritten bis vierten Quartal. Theoretisch könnte Trump schon das Budget von 2018 beeinflussen, das während seines ersten Amtsjahrs durch die Instanzen geht, aber außer Kennedy hat das keiner gemacht auch, weil die Präsidenten zuerst andere Prioritäten auf ihrer Agenda hatten.

Die Verzögerungen bei den anderen Präsidenten außer Clinton haben auch ihre Gründe. Nixon genehmigte das Space Shuttle, als das Apolloprogramm zu Ende ging und damit auch dessen Finanzbedarf. Intern hatte die NASA aber seit 1969 am Programm gearbeitet und in dieser Zeit die Konzeption radikal geändert. Vorher war das Konzept nicht reif für die endgültige Genehmigung.

Reagan wartete mit einem neuen Großprojekt, bis die Space Shuttles operationell waren, auch hier sollte Freedom als Nachfolgeprogramm anschließen und so Kontinuität sichern, auch indem Mitarbeiter in der Entwicklung weiter beschäftigt sind.

Bush hat sein Constellationprogramm unter dem Eindruck des Verlusts der Columbia verfasst. Auch hier kam es zeitgleich zu einem Einstellungsbeschluss, diesmal für die Shuttles (letzter Flug damals für 2009/10 geplant) und ISS (2016, vorher ging es wegen der Verträge mit den Partnern nicht). Constellation war schon vom Start weg eine Totgeburt, weil es keine zusätzliche Finanzierung erhielt. Vielmehr sollten die eingesparten Gelder aus den beiden anderen Programmen es finanzieren.

Obama stellte Constellation ein, weil diese Finanzierung nicht ausreichte. Wie die Augustinekomission ausrechnete, brauchte das Programm so ewig und kostete enorm viel. Obama selbst gab nur eine Marschroute vor ohne konkretes Ziel. Diesmal zu Asteroiden und zum Mond, aber ohne Landung. So kam man in den Augen der NASA ohne Lander im Programm aus (der Altair-Lander von Constellation war noch nicht mal konzipiert, als es eingestellt wurde). Obama genehmigte eigentlich nur die Weiterarbeiten an der Orion. Der Senat dann noch die SLS. Zusammen ermöglichen diese beiden Komponenten dann bemannte Besuche erdnaher Ziele as eigentlich nur die Mondumlaufbahn und Erdbahnkreuzer sind.

Alle diese Programme vermitteln eine Lehre: Klotzen nicht kleckern. Schauen wir uns sie mal genauer an. Das Space Shuttle wurde gebaut, das sogar bei real sinkendem NASA Budget. Doch zu welchem Preis? In der Zeit, bis es operationell wurde, schrumpfte das unbemannte NASA-Budget zusammen. Die einzigen Planetensonden, die in 10 Jahren neu genehmigt wurden, waren Galileo und Pioneer Venus. Einen ähnlichen Kahlschlag gab es beim Wissenschaftsprogramm. Trotzdem brauchten sie drei Jahre länger als geplant.

Freedom startete ambitioniert, mit neuen Technologien, wie solarthermische Stromversorgung, vor allem aber dem Konzept des Aufbaus mithilfe des Space Shuttles. Nach dem Verlust der Challenger musste man umplanen. Bis 1994 gab man Milliarden aus, ohne dass eine endgültige Lösung entstand, geschweige denn Hardware. Dann begannen sich NASA und Roskosmos zu nähern und man beschloss die Raumstation zusammen zu bauen. Mit diesem zugkräftigen Argument der Zusammenarbeit wurde dann die ISS genehmigt. Obwohl schon vor dem ersten Modul klar war das Russland nicht die Station verbilligen würde – die eigenen Module wurden nach und nach gestrichen und schließlich brauchte Roskosmos sogar die Fremdfinanzierung der NASA - lies man nicht mehr ab.

Alle folgenden Präsidenten versuchten dann, noch ehrgeizige Programme aus der Portokasse zu finanzieren. Auch das scheiterte aus naheliegenden Gründen. Die folgende Tabelle gibt das Apollobudget wieder:

Jahr

NASA Budget gesamt [Mill Dollar]

davon Apollo [Mill Dollar]

1962

1.671,750

160,500

1963

3.674,115

617,164

1964

3.974,979

2.272,952

1965

4.270,695

2.614,619

1966

4.511,644

2.967,385

1967

4.175,100

2.916,200

1968

3.970,000

2.556,000

1969

3.193,559

2.025,000

1970

3.113,765

1.686,145

1971

2.555,000

913,669

1972

2.507,700

601,200

1973

2.509,900

76,700


Wie man sieht, ist der Verlauf ähnlich der Grafik des Gesamtbudgets weiter unten während der Apollojahre. Es ist eine Glockenkurve. Der Spitzenwert wird vor dem ersten Flug erreicht, bei Apollo 1966. Der Grund ist relativ einfach: Die Entwicklungskosten machen den Löwenanteil aus. Wenn die Flüge beginnen, ist die Entwicklung beendet und die Kosten sinken. Ein Apollo-Flug kostete 350 Millionen bis 450 Millionen Dollar. Alle 11 Flüge also zusammen rund 4 Milliarden Dollar bei Gesamtkosten von 19,4 Mrd. Dollar (es kommen meist noch zu Apollo indirekt gehörende andere Posten wie Skylab als Apollo-Anwendungsprogramm hinzu, sodass man die Gesamtkosten von Apollo auf rund 25 Milliarden Dollar beziffert). Kurz: Der Einsatz ist billig, die Entwicklung teuer. Das gilt für alle bemannten Projekte. CCDev hat insgesamt 10 Milliarden Dollar verschlungen. Ein Sitz soll günstiger als auf einer Sojus sein, die bei 60 Millionen Dollar/Astronaut liegt. Bei jeweils 4 Astronauten also Startkosten von durchschnittlich 240 Millionen Dollar – auch hier fast dasselbe Missverhältnis von Flugkosten zu Entwicklungskosten wie bei Apollo.

Die ISS klappte bei konstantem Budget, weil es nicht ein Projekt ist, sondern es mehrere Module und Elemente sind, die man nacheinander entwickeln und starten konnte. Beim Space Shuttle gab es die Chance, dass es auch bei flachem Budget klappen könnte, weil es drei Elemente waren und Tank und SRB schneller entwickelbar sind. Doch Verzögerungen und Probleme führten zu einem laufend ansteigenden Budget:

 

Jahr
(Quelle)

NASA Gesamtbudget [Mill $]

Space Shuttle Budget [Mill $]

Anteil am Gesamtbudget

Gesamtkosten [Mill $]

1969

3.530,2

0,0

0,00%

0,0

1970

2.991,6

9,0

0,30%

9,0

1971

2.631,4

160,0

6,08%

169,0

1972

2.623,4

115,0

4,38%

284,0

1973

2.541,4

200,0

7,87%

484,0

1974

2.421,6

475,0

19,62%

959,0

1975

2.420,4

805,0

33,26%

1.764,0

1976

2.748,8

1.206,0

43,87%

2.970,0

1977

2.980,7

1.288,1

43,21%

4.258,1

1978

2.988,7

1.348,8

45,13%

5.606,9

1979

3.138,8

1.637,6

52,17%

7.244,5

1980

3.701,4

1.870,3

50,53%

9.114,8

1981

4.223,0

1.994,7

47,23%

11.109,5

Die SLS wird derzeit mit einem konstanten Budget entwickelt. Das betont die NASA extra. Doch es klappt nicht. Sie kostet damit nur mehr und der Erststart rutscht dauernd nach hinten, dabei ist das meiste ja nicht mal neu. Triebwerke und SRB werden übernommen und die Oberstufe hat man schon gestrichen.

Trotzdem kapieren diesen Fakt Präsidenten nicht. So werden aber nur Milliarden ausgegeben. Großprojekte kosten dauernd Geld, auch wenn nichts passiert. Leute sind nur mit der Planungen und Umplanungen beschäftigt. Man kann sie nicht entlassen und in ein paar Jahren wieder anstellen, dann sind sie längst in die Industrie abgewandert. Diese Kleckerlesetaktik macht alles nur teurer. Trump ist nicht schlauer als seine Vorgänger und so wird es auch so enden wie bei seinen Vorgängern: Milliarden werden herausgeworfen ohne Effekt. Dabei ginge es heute viel billiger als zu Apollos Zeiten. Dafür gibt es drei Gründe. Das eine ist, das 40 Prozent der Mittel damals nur auf die Trägerentwicklung entfielen, die war ausgehend vom technischen Ausgangsstand so teuer. Heute haben wir, wie die SLS zeigt die Triebwerke und Booster schon, man kann hier enorm viel sparen. Die SLS ist auch um ein vielfaches billiger als die Saturn V, wenn man ihre kosten inflationskorrigiert betrachtet.

Das Zweite ist, das man damals Sicherheit durch Manpower gewann. Enorm viele Menschen waren mit Planung, Design, Prüfungen und Fertigung beschäftigt. Der Zusammenbau einer Saturn V am Startplatz dauerte Monate. Nach Apollo 11 wurden alleine im Kennedy Space Center 5.600 Personen entlassen – sie waren nötig um vier Starts pro Jahr durchzuführen. Danach konnte das KSC nur noch zwei pro Jahr durchführen. Man brauchte also 5.600 Personen um zwei Starts zusätzlich pro Jahr abzuwickeln. Alleine im KSC waren damals 23.600 Personen beschäftigt – mehr als heute in der ganzen NASA. Diese Manpower wird heute durch Computer ersetzt. Sie ersetzen viele Arbeitskräfte bei Planung, Design und Tests.

Als letzten Grund starten wir von einem anderen Technologielevel aus. Als Apollo angekündigt wurde, war die Weltraumfahrt gerade mal drei Jahre alt, man war froh, wenn Satelliten einige Monate lang arbeiteten. Keine US-Raumsonde hatte funktionsfähig den Mond oder gar einen Planeten erreicht. Heute arbeiten selbst von Studenten konstruierte Cubesats jahrelang. Die Erfahrung ist eine andere und damit muss man viel weniger entwickeln, testen und ausprobieren. Das alles spart Mittel – Kosten und Personen – ein.

Zuletzt noch zur Grafik aus diesem Artikel. Sie ist etwas irreführend. Sie zeigt das inflationskorrigierte Budget der NASA. Glaubt man ihr, so könnte man mit 15 Milliarden Dollar mehr über einige Jahre Apollo nochmals durchführen. Ich fürchte so billig wird es nicht. Was die Grafik nicht zeigt, ist der Anteil der NASA am Gesamtbudget der USA. Das lag zur Spitzenzeit von Apollo bei 4 % der Gesamtausgaben. Die NASA heute liegt bei 0,47 %. Verglichen mit damals ist das Gesamtbudget viel stärker gewachsen als der NASA Haushalt. Trumps erstes Budget ist fast gleich hoch wie im Vorjahr, aber das Budget für militärische Raumfahrt des Pentagons steigt um 8 %. Schaut man es sich genauer an, so tauchen bei Trump auch keine Posten für neue Expeditionen auf, nur Streichungen wie von WFIRST. Im Prinzip das gleiche wie gehabt – Streichen ohne das man wirklich was bewegt. Nicht das Ich meine, dass man noch mal auf dem Mond landen sollte oder zu anderen Zielen aufbrechen. Aber noch schlimmer als solche Programme umzusetzen ist es an ihnen rumzuplanen ohne das Sie jemals umgesetzt werden. Ich bin überzeugt, wenn man alle Mittel die nur seit Bushs Constellation Rede dafür ausgegeben hat, man nicht ausgegeben hätte, sondern auf einem Sparbuch angelegt, man heute genügend Geld hätte, um das Programm tatsächlich anzugehen, wenn man dann noch mal so viel drauflegt, wie derzeit die ISS kostet.

20.12.2018: Die Aufstiegssimulation

Ziemlich bald nach dem Interesse an der Raumfahrt habe ich mich auf Raketen fokussiert. Schon mit 15,16 fing ich an, über die Ziolkowski-Gleichung die Endgeschwindigkeiten von Raketen auszurechnen. Die wichtigen Daten – es sind ja nur Vollmasse, Leermasse und spezifischer Impuls jeder Stufe fand man damals noch in Büchern. Heute ist es wesentlich schwieriger, sie zu finden.

Das System habe ich über 40 Jahre beibehalten. Es ist eigentlich ganz simpel, dafür braucht man keinen Computer, ein Taschenrechner mit Logarithmusfunktion tut es auch:

Ich berechnete die Endgeschwindigkeit einer Rakete mit einer bekannten Nutzlast. Die ist größer als die Bahngeschwindigkeit, z.B. Bahngeschwindigkeit 7800 m/s, Endgeschwindigkeit der Rakete: 9456 m/s. Das, was zu viel ist, sind Verluste. Wie ich später merkte, beruhen die vor allem darauf, dass die Rakete ja auch die Orbithöhe erreichen muss und während der Zeit wird sie dauernd von der Erde angezogen, das sind die Gravitationsverluste. Sie sind innerhalb einer Rakete relativ konstant. Kennt man also die Verluste für eine Bahn, so kann man die Endgeschwindigkeit für die nächste Bahn berechnen und durch Probieren die Nutzlast (wie ich bald herausfand, gab es auch dafür einen die Differenz zur wahren Nutzlast reduzierenden iterierenden Weg den man mit dem Taschenrechner in 2,3 Durchgängen durchlaufen konnte).

Bei unbekannten Raketen muss man die Nutzlast abschätzen. Da die Gravitationsverluste beim Aufstieg in den Orbit entstehen, gibt es große Unterschiede. Die Extreme liegen bei etwa 860 und 2500 m/s. Die meisten mit flüssigen Treibstoffen angetriebenen Träger liegen bei 1500 bis 1800 m/s. Um unteren Ende sind reine Feststoffraketen oder Träger mit flüssigen Treibstoffen aber kurzen Brennzeiten wie die Titan 2 (355 s Gesamtbrennzeit). Am oberen Ende Raketen mit langer Brennzeit wie Ariane 5 (selbst wenn man nur einen LEO als Maßstab nimmt über 900 s Brennzeit). Leider ist der Zusammenhang nicht linear, man kann also nicht einfach pro Sekunde Brennzeit 9,81 m/s (der Zahlenwert von g) hinzuzählen – zum Glück, sonst läge Ariane 5 ECA nicht bei 2200 m/s, sondern über 6000 m/s Verlusten, wenn man von der Titan II ausgeht (1065 m/s). Ich habe daher immer die Verluste geschätzt, indem ich die Verluste von Raketen mit ähnlicher Gesamtbrennzeit als Vergleich nahm. Das ist nicht immer leicht. Viele Raketen mit schubschwachen Stufen erreichen ihre LEO-Maximalnutzlast gar nicht, weil sie nicht so lange brennen können, ohne wieder in die Erdatmosphäre einzutreten. Bei ATV Missionen hat man die EPS z.B. nur mit 5,4 anstatt 10 t Treibstoff beladen. Die Atlas V braucht für die volle LEO Nutzlast ein zweites Triebwerk in der Centaur.

Vor einem Jahr habe ich begonnen eine Aufstiegssimulation zu machen, jetzt wo die Manuskripte draußen sind, bin ich dazu gekommen, an ihr weiter zu arbeiten und zu vervollständigen. Wie bei der einfachen Rechnung ist es ein Modell und daher hier eine kleine Beschreibung mit den Einschränkungen, die es gibt, bevor ich die Ergebnisse diskutiere.

Ich arbeite damit, dass ich den Start durchsimuliere und in kleinen Zeitschritten auf Basis der aktuellen Masse und Schub jeweils die Beschleunigung berechne, sowohl der Rakete wie auch durch die Erdanziehungskraft. Das Aufstiegsprofil besteht aus bis zu 6 vorgegebenen Zeitpunkten mit vorgegebenen Winkeln des Schubvektors relativ zur Erdoberfläche beim Start (90 Grad beim Abheben, 0 Grad parallel zur Erdoberfläche). Dazwischen wird der Schubvektor linear gedreht entsprechend dem Winkel- und Zeitunterschied zwischen zwei Wegepunkten. Ich weiß das, dem bei einigen frühen Trägern so war, so der Europa oder Scout. Die Atmosphäre ist einfach modelliert: Nach der barometrischen Höhenformel nimmt der Druck exponentiell mit einer Skala von 8400 m ab. Ebenso die Luftdichte. Als Luftwiderstandsbeiwert habe ich 0,35 für die Kopffläche (spitzer Kegel) und 0,99 für die Seitenfläche, die aber nur durch den augenblicklichen Drehwinkel Widerstand leistet. Ich habe festgestellt, dass die Verluste meiner Modellatmosphäre deutlich geringer als real sind. Da muss ich noch nach einem besseren Modell suchen. Die Luftwiderstandsverluste machen aber nur in der Größenordnung von 100 bis 150 m/s aus, das heißt, selbst wenn ich hier große Abweichungen habe, macht das nicht so viel bei der Nutzlast aus.

Der Schub wird ebenso berechnet. Er entwickelt sich parallel zur Druckabnahme, also bei 1 bar der Bodenschub und 0 Bar dem Vakuumschub. Das ist eine größere Einschränkung. Vor allem Startbooster haben ein unregelmäßiges Profil, der Schub ist anfangs hoch und nimmt dann nach Erreichen von MaxQ langsam ab. Bei mir verläuft er genau umgekehrt. Ebenso ist ein variabler Schub nicht möglich, wie bei der Atlas V CCB oder der S-IVB.

Ich habe in den letzten Tagen das Modell auf 3 Koordinaten umgestellt (bewegt sich eine Rakete nicht in der dritten Achse, weil der Winkel beim Start schon feststeht, so reichen auch zwei) und will einige Ergebnisse präsentieren. In der dritten Achse (entlang der geografischen Länge) liegt allerdings der Startazimut dauerhaft fest. Drehmanöver, wie sie russische Raketen fliegen müssen, wenn sie von Baikonur aus starten um bewohntes Gebiet zu meiden sind auch so nicht möglich. Aber man bekommt so die korrekte Bahnneigung, die durch den Südkurs einer Rakete abnimmt.

Ich habe schon einige Probleme festgestellt. Es ist schwer Freiflugphasen zu simulieren, bei denen ein Feststoffbooster später gezündet wird. Die Titan 23G habe ich problemlos modelliert mit einer Nutzlast nahe der angegebenen Nutzlast, doch bei der Titan 23G + Star 37 FXP tue ich mich schwer. Bisher habe ich da keine Lösung. Ebenso bei der Vega mit vier Stufen, variabler Treibstoffzuladung des AVUM und Freiflugphase gibt es da zu viele Parameter, an denen man drehen kann. Eine Optimierung habe ich noch nicht gefunden, zumindest nicht, wenn schon die Ausgangssituation nicht die Vorgaben erfüllt. Bisher mache ich das von Hand, indem ich die Höhendiagramme betrachte, und versuche die Spitzenhöhe nicht zu hoch und das absacken nicht zu stark werden zu lassen.

Nun zu den Ergebnissen. Man interessiert sich natürlich für Raketen, deren Nutzlast unbekannt ist. Ich fing mit der Ariane 5 ECA als Test an und komme bei 10900 kg Nutzlastvorgabe und Zielvorgabe 250 x 35.790 km Bahn auf eine Bahn von 286,6 x 35.800 km x 5,2 Grad bei 405 kg Resttreibstoff. Das passt also zur echten Ariane 5 ECA. Damit ging ich an die Berechnung der Ariane 5 ECB mit einer Startmasse von 33.720 kg und Trockenmasse von 5.970 kg (inklusive VEB). Das war deutlich schwerer. Ideal sind Bahnen wie in der Grafik der Ariane 5 ECA, wo nach einiger Zeit die Höhe konstant ist, d.h. Steigung durch Schub und Absinken durch die Gravitation halten sich die Waage. Am Schluss steigt dann die Höhe durch die Massenabnahme immer an. So eine Kurve ist bei der Ariane 5 ECB nicht möglich. Die Stufe wiegt mit Nutzlast 46 t beim Start, bei der Ariane 5 ECA sind es 30 t. So bringt schon die Zentralstufe die Nutzlast nicht auf eine elliptische Startbahn mit einem hohen Apogäum, von der sie zehren kann. Da nach Trennung von der EPC der Schub nur noch 180 kN beträgt, sinkt die Bahn praktisch nach der Stufentrennung ab, d. h. die EPC muss in großer Höhe Brennschluss haben, um das Absinken aufzufangen. Will man sich der Erde auf minimal 150 km nähern dann komme ich auf nur 11,9 t Nutzlast (wohlgemerkt ohne 400 kg Abweichung wie bei der Ariane 5 ECA). Die entsprechende Aufstiegskurve sieht so aus:

Verglichen mit der ECA ist die Delle tiefer, die Spitzenhöhe höher, beides energetisch ungünstig. Als kleine Ergänzung habe ich noch eine zweistufige Ariane 5 für LEO Missionen simuliert. Sie hat mit 21 t Nutzlast für einen 260 km hohen Übergangsorbit zur ISS (51,6 Grad Bahnneigung). Das ist fast die gleiche wie mit der EPS Oberstufe. Es wird sie aber nie geben, weil die ESA die schwere EPC nicht in einem Erdorbit haben will, das senkte schon bei der Entwicklung die Nutzlast ab, weil die Aufstiegsbahn so modifiziert werden musste.

Damit habe ich mich an die Ariane 6 gemacht, bei ihr erwartete ich Ähnliches. Doch ich wurde positiv überrascht. Der hohe Schub der beiden Booster und die verkürzte Brennzeit der EPC (von 534 auf 460 s) bewirken, dass die Gravitationsverluste beträchtlich niedriger sind. Eine 181 x 35.790 km Bahn hat nach meiner Rechnung eine Nutzlast von 14,3 t. (Man müsste aber noch einige Hundert Kilo abrechnen um die die ESC höher lag als in der Realität, 13,5 – 13,8 t halte ich aber für realistisch). Ähnliches habe ich schon bei der einfachen Berechnung herausgefunden).

Die Ariane 62 hat einen kleineren Schub beim Start, entsprechend sind die Feststoffbooster ausgebrannt, wenn die Rakete noch einen relativ großen Winkel zur Erdoberfläche hat. Doch auch hier wirkt sich die geringe Brennzeit der Zentralstufe aus, auch wenn der „Buckel“ steiler ist. Für eine 182 x 35.790 km Bahn errechne ich eine Nutzlast von 8.800 kg (korrigiert: 8,4 t), deutlich mehr als Arianespace und ESA angeben, aber ebenfalls im Einklang mit einfacheren Simulationen.

Noch ein Ergebnis: Eine Ariane 64 könnte 7.500 kg auf eine Transferbahn zum Mond befördern und eine Ariane 62 etwa 4.100 kg auf eine Galileoumlaufbahn bringen. Das wäre ausreichend für 4 der Satelliten, wenn der Dispenser nicht mehr als 900 kg wiegt.

Für niedrige Erdumlaufbahnen verschärft sich das Problem der zu schweren Oberstufe. Mit der Nutzlast wiegt diese rund 60 t. Anders als bei GTO Bahnen, wo nach der Hälfte der Brennzeit der Oberstufe eine stabile Erdumlaufbahn (wenn auch nicht mit dem Apogäum in Zielhöhe) erreicht ist, muss sie bis zum Ende brennen. Damit sie nicht unter eine Minimalhöhe sackt, muss sie vorher eine große Höhe – über 400 km erreichen. So wird man wohl eine Taktik einschlagen, die sich schon bewährt hat – bei ATV-Missionen wurde die EPS nur zur Hälfte mit Treibstoff beladen. Und in der Tat ist die Nutzlast einer vollen Oberstufe (30 t Treibstoff) mit 24,9 t kleiner als mit 14 t Treibstoff (25,7 t – jeweils für einen 260-km-ISS-Orbit). Bei der Ariane 62 sind es 15 t (Spitzenhöhe 517 km!). Hier ist bei teilbefülltem Tank die Nutzlast aber deutlich geringer: hier sind es nur 10 t.


 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99