Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 408: 17.12.2014 - 25.12.2014

17.12.2014: Das Mooresche Gesetz gilt noch immer - oder auch nicht

Die ct' hat wie immer vor Weihnachten ihre Empfehlungen für den "optimalen" PC (sortiert nach Anwendungen) gegeben. Wie immer gibt es einen Grundlagen Artikel, was man in jeder Preisklasse von Prozessor, Speicher, Festplatte und Grafikkarte erwarten kann. Mich hat zweierlei gestört: das erste war das im Text zwar darauf eingegangen wird, dass sich heute Einstiegsprozessoren und High-end Core i7 in der Singlethreadperformance kaum unterschieden, das sieht man an den Ergebnissen aber kaum. Die Tabellen führen nur Benchmarks von auf mehrere Threads optimierten, fließkommaintensiven Benchmarks. Die in einem früheren Artikel beim Vergleich genutzten Benchmarks wie PC-Marks, die die reale Performance von Anwendungsprogrammen als Basis nahmen, fielen weg,

Das zweite war dass man die AMD Prozessoren aber auch einige Intel Prozessoren im Low-End als veraltet darstellt. Nun zumindest bei AMD gilt dies im Hinblick auf den Stromverbrauch, weil AMD noch im 28 nm Prozess produziert. Intel hat inzwischen den 14 nm Prozess voll im Griff, das erlaubt es, wenn man gleich viele Transistoren für eine gewisse Funktion braucht, diese auf einem Viertel der Fläche unterzubringen und so den Stromverbrauch deutlich zu senken. Hinsichtlich der für Integeranwendungen wichtigen Leistung hat sich seit Einführung der Core Mikroarchitektur, das ist nun auch schon 7 Jahre her, nicht viel getan, hier gab es nur evolutionäre Veränderungen. Intel hat seit 15 Jahren vor allem an Schraube Fließkommaperformance gedreht, die bei typischen Desktopanwendungen wie Textverarbeitung, Surfen, Mail aber auch Videodekodierung kaum genutzt wird.

Bevor ich einen Leserbrief an die ct' schreibe dachte ich mir, veröffentliche das im Blog, da haben mehr Leute was davon und ich kann weiter ausholen. Zuerst einmal: warum erwarten wie das PCs schneller werden? Grundlage ist schlussendlich das "Moorsche Gesetz". Gordon Moore prognostizierte 1965 das sich die Anzahl der Elemente auf einer bestimmte Chipgröße alle 12 Monate verdoppelte, später korrigierte er auf 24 Monate, als Ende der Sechziger das Wachstum abflachte das auf 24 Monate.

Nun ist für den Anwender letztendlich egal, wie viele Transistoren auf ein Die passen. Das hat die Folge, das man den Speicher erweitern kann und er pro Bit immer billiger wird. Solange aber der Rechner nicht schneller wird nützt dem Anwender das nichts (oder was würde ein C-64 mit 8 GByte RAM anfangen können?) Solange die CPU nicht schneller wird, wohl wenig. Aber mehr Transistoren erlauben eine ausgeklügelte Architektur: mächtigere Befehle, Verarbeitung von mehr Daten gleichzeitig, stufenweise Verarbeitung verschiedener Befehle in unterschiedlichen Stadien in mehreren Teilen des Prozesors. Dadurch steigt letztendlich die Geschwindigkeit.

Moores Gesetz gilt noch immer, auch wenn die Kurve nun etwas abflacht. Was jedoch nicht mehr gilt, ist dass die Geschwindigkeit automatisch ansteigt. Intel wie AMD scheinen einen Endpunkt in der x86 Architektur erreicht zu haben. Die Performance pro Kern steigt seit einigen Jahren nur noch langsam an. Mehr parallel arbeitende Einheiten machen wenig Sinn, wenn sie nicht vollständig ausgelastet werden. Hyperthreading oder SMRT wie Intel es nun nennt zeigt das ja deutlich Hyperthreading simuliert für das Betriebssystem mehr Kerne als es tatsächlich gibt. Mehr Geschwindigkeit erreicht man dadurch, dass die "virtuellen" Kerne, die von dem Code in einem Thread ungenutzten Funktionseinheiten ausnutzen. Wären diese ausgelastet, so wäre der Gewinn gleich Null. Das Hyperthreading immer effektiver ist (beim Pentium 4 waren es 10-15%, bei Nehalem schon 20% und bei Haswell sind es 30%) liegt daran dass es immer mehr Einheiten für Ganzzahlanweisungen gibt, aber der Code die Parallelität nicht her gab.

Da ich seit Juli an einer Serie über die x86-Architektur arbeite (primär zur eigenen Fortbildung, aber ich hoffe, es nützt auch anderen) habe ich auch Benchmarkergebnisse gesammelt. Es gibt eigentlich nur zwei Benchmarks, die sowohl auf dem 8086 wie auch einem Core 5XXX arbeiten: Dhyrstone und Whetstone. Sie sind sehr alt, mit den entsprechenden Nachteilen, aber Dhrystone korreliert sehr gut mit der Singlethreadperforance auch moderner Anwendungen und Wheatstone sehr gut mit der Fließkommaperformance ohne AVX Unterstützung. Ich habe sie auch gewählt, weil sie beim BOINC Netzwerk Grundlage für die Credits sind die ein Benutzer bekommt. Da ich selbst BONIC installiert habe, kann ich auch leicht den geschätzten Aufwand in GFLOPS durch die verbrauchte Prozessorzeit teilen und komme auf in etwa die gleichen Wert wie bei Whetstone. Die BOINC Ergebnisse publizieren aber viele um anzugeben. Das erlaubt zumindest bei neuen Prozessor eine einfachere Recherche.

So habe ich folgende Tabelle erstellt. Dazu noch einige Bemerkungen:


Kerne Ausführungseinheiten
Fließkomma
Ausführungseinheiten
Integer
Takt [MHz] Transistoren Dhrystones Dhrystones
/MHz
Dhrystones
/MHz/Einheit
Whetstones Whetstones
/MHz/Einheit
Transistoren/
Dhrystones
‚8086 1 1 1 4,77 29.000 0,5 0,10 0,10 0,0104 0,00 58000
‚80286 1 1 1 10 134.000 1,889 0,19 0,19 0,0852 0,01 70937
‚80386 1 1 1 40 275.000 17,5 0,44 0,44 5,68 0,14 15714
‚80486 1 1 1 66 1.200.000 45,6 0,69 0,69 15,2 0,23 26316
Pentium 1 1 2 200 3.200.000 352 1,76 0,88 132 0,66 9091
Pentium Pro 1 1 2 200 5.500.000 373 1,87 0,93 161 0,81 14745
Pentium II 1 2 2 300 7.500.000 544 1,81 0,91 245 0,41 13787
Pentium III 1 2 2 1000 29.400.000 1858 1,86 0,93 816 0,41 15823
Pentium 4 1 1 4 3066 125.000.000 2430 0,79 0,20 1858 0,61 51440
Pentium D 2 1 4 3000 230.000.000 3678 1,23 0,31 1119 0,37 31267
Core 2 Duo E6850 (Merom) 2 3 3 3000 291.000.000 8144 2,71 0,90 3142 0,35 17866
Core 2 Duo E8600 (Penryn) 4 3 3 3950 825.000.000 9101 2,30 0,77 3625 0,31 22662
Core I7 950 (Nehalem) 4 3 3 3333 731.000.000 6443 1,93 0,64 2913 0,29 28364
Core I7 2600 (Sandy Bridge) 4 3 3 3400 995.000.000 11797 3,47 1,16 3428 0,34 21086
Core I7 3770K (vy Bridge) 4 3 3 3500 1.400.000.000 14196 4,06 1,35 3719 0,35 24655
Core I5 4690 (Haswell) 4 3 4 3800 1.400.000.000 16700 4,39 1,10 4700 0,41 20958
Core i7-5820K (Haswell EP) 6 3 4 4400 2.600.000.000 19000 4,32 1,08 4320 0,33 22807

Das interessante sind die Spalten nach den Messwerten. Dhrystones/MHZ ist ein Wert für die Effizient einer Architektur. Er steht für die Singlethreadperformance. Man sieht dass dieser seit der Einführung der Core Mikroarchitektur (und das ist auch schon 7 Jahre her) nur von 2,71 auf 4,32 anstieg. Das steht im Einklang mit Benchmarkergebnissen die ohne spezielle Optimierungen bei Ganzzahlanwendungen, wie sie die meiste heutige Software ist, pro Generation eine Steigerung von meist 15% feststellt.

Noch konstanter ist der Wert Dhrystones pro Einheit, also pro ALU, Dieser ist bei dem Wert des Pentium mit einer Ausnahme um 1 schwankend mit kleinen Ausschlägen nach oben und unten. Die Ausnahme ist der Pentium 4, dessen Netburst Architektur im Markt scheiterte. Das diese nicht so optimal war, sieht man auch an der Performance Transistoren pro Dhrystone (letzte Spalte). Auch hier fallen die beiden Prozessoren mit dieser Architektur durch hohe Werte auf. Bei letzterem Wert wurde die Kernzahl berücksichtigt, allerdings kein Hyperthreading. Dieser Wert ist allerdings mit Vorsicht zu genießen, da im Laufe der Zeit immer mehr in den Prozessor gewandert ist. Heute ist die komplette Grafik dort enthalten, Speicherkontroller, Anbindung der Slots, Cachecontroller, Caches (schon bei Nehalem 60% der Fläche) und Memory Management Unit. Das alles fehle noch bei den ersten Generationen. Alleine die Grafik macht bei Ivy Bridge und Haswell rund 400 Millionen Transistor Funktionen oder ein drittel der Komplexität aus. Hyperthreading wurde ebenfalls nicht berücksichtigt und sollte bei den I7-Prozessoren den Wert um 20 bis 30% senken. Trotzdem fällt der Pentium durch seine Effizienz auf. Folgerichtig nutzte Intel dieses Design für den Xeon Phi - der zeigt, was wir auch heute mit den 2,6 Milliarden Transistoren haben könnten: 50 anstatt 6 Prozessoren pro Chip.

Was ist nun die Konsequenz? Nimmt man den Anstieg der T5ansistorzahlen so gilt das Moor'sche Gesetz nach wie vor. Etwas anders sieht es bei der Performance aus, die beim Anwender ankommt. Die ist seit der Einführung der Core Mikroarchitektur nur langsam gestiegen. Nimmt man den E6850 Prozessor vom Herbst 2007 und vergleicht ihn mit dem leistungsfähigsten Core i3 (ebenfalls zwei Kerne) I3-4370 von 2014, so bekommt man um 94% mehr Leistung pro Singlethread (Integer). Bei Fließkomma sind es sogar nur 42%. Dieser Wiederspruch ergibt sich daraus, das Intel seit dem Pentium 4 sich auf SIMD Erweiterungen konzentrierte, die liefern heute die achtfache Performance bei einfachgenauen Zahlen wie die klassischen x86 Befehle - aber eben nur wenn sie genutzt werden. Früher war der Gewinn im selben Zeitraum höher. Wer einen 1984 gekauften 80286 1991 (nach sieben Jahren) durch einen 80486 ersetzte bekam 12 x mehr Leistung, wich er 1998 einem Pentium II, war der Anstieg erneut der Faktor 12. Ein 2006 gekaufter Pentium D war immerhin noch siebenmal schneller - da flachte es schon ab.

Intel versuchte zuerst die Problematik durch mehr Kerne zu kompensieren, doch weil Software diese meist nur selten nutzte, hat man im Desktopsegment seit einigen Jahren die Kernzahl auf 4 beschränkt (bei Servern wo die Kerne ausgelastet sind gibt es mittlerweile bis zu 18 Kerne pro CPU), Stattdessen führte man Turbo Boost ein um wenigstens die Taktfrequenz eines oder zwei Kernen zu steigern, wenn schon die Kerne nicht alle genutzt wurden und Haswell bekam wieder mehr Funktionseinheiten, mit Haswell EP steigt nun die Kernzahl erneut an, zumindest im obersten Segment (i7).

Meiner Ansicht nach wäre es Zeit für eine neue Architektur, Doch die scheint nicht zur Diskussion zu stehen. Vielmehr tippe ich darauf das Intel mehr Beschleunigungsfunktionen integrieren wird, z.B. eine noch leistungsfähigere Grafikeinheit. Die hat seit ihrer Einführung in der Westmere Generation deutlich an Geschwindigkeit zugelegt. Früher war sie langsamer als selbst die langsamsten Graphikkarten, nun erreicht sie immerhin das 50 Euro Niveau des Grabbeltischs.

22.12.2014: Der Wald

Kürzlich kam die Deutschland Saga, wo bei Terra X ein australischer Professor über Deutschland referierte. (vielleicht klingt e seriöser, wenn der Fachmann aus dem Ausland kommt) Es gab einiges neues für mich, die wohl überraschendste Neuigkeit: Nach einer BBC Umfrage mit 26.000 Teilnehmern in 16 Ländern ist Deutschland, das beliebteste Land (in der Welt)! Die USA die ja bei manchen (wenn auch deutlich weniger als noch vor 20 oder 230 Jahren) als Vorbild hoch gehalten werden kamen auf Platz 8, zwei Plätze hinter der EU die auch wählbar war.

Die Serie inspirierte mich zum heutigen Thema dem Wald. Schon Tacitus berichtet vom Wald mit dem Deutschland damals überzogen war und der muss zumindest Tacitus beeindruckt haben. Vielleicht war er aber, wie das Wetter nur eine gute Entschuldigung für die Niederlage der Römer 9.n. Chr. Ich schreibe bewusst nicht im Teutoburger Wald, weil die Schlacht dort nicht stattfand, sondern bei Kalkriese, wo die Schlacht in einem Engpass zwischen einem Moor und einem Berg stattfand, aber nicht im Wald. Trotzdem scheint Deutschland damals noch bewaldeter gewesen sein als Frankreich. Wir können davon ausgehen, dass ganz Mitteleuropa nach der Eiszeit voll bewaldet war, wie dies heute noch zum Teil in Skandinavien oder Russland der Fall war. In Frankreich muss damals schon mehr Wald gerodet worden sein um Ackerfläche zu gewinnen, vielleicht weil die Bevölkerung größer war.

Was uns von den keltischen Nachbarn unterscheidet, ist das Germanen den Wald verehrten und bei bestimmten Bäumen Zeremonien abhielten. Doch das wurde mit dem Christentum abgeschafft, damit kann man die enge Beziehung der Deutschen zum Wald nicht begründen. Der Wald wurde auch schon lange wirtschaftlich genutzt. Zuerst wurde der Primärwald abgeholzt, dann nutzte man den nachwachsenden Sekundärwald zur Brennholzgewinnung. Dazu wurden die Bäume regelmäßig gestutzt, sie wuchsen nicht voll aus sondern sobald sie eine bestimmte Höhe hatten wurden die unteren Äste und Stämme abgehackt, aber nicht direkt am Boden. Als Folge bildeten diese viele Triebe die man so regelmäßig erntete. (Stockausschläge) Das ging natürlich nicht allen Bäumen aber bestimmten schnellwachsenden Hölzer wie Weiden und Pappeln. Dann nutzte man den Wald um darin die Schweine zu treiben, die bis zur Neuzeit nicht gefüttert wurden, sondern wie Wildschweine sich von Pilzen, Eicheln oder anderem essbaren ernährten (und auch in Status und Verhalten mehr Wildschweinen als Hausschweinen ähnelten). Echten natürlichen Wald gab es schon im Mittelalter nicht mehr.

Bis zu Beginn des 18-ten Jahrhunderts hatte man den Wald weitgehend abgeholzt, weil immer mehr Menschen immer mehr Brennholz brauchten und so viel gar nicht nachwuchs. Dazu kam noch Holz als Baumaterial. Stämme aus dem Schwarzwald wurden über den Rhein bis zu den Niederlanden für den Schiffbau transportiert - woanders waren alte, große Bäume die man vor allem für Masten brauchte fast nicht mehr zu finden. Wer mal Landschaftsbilder aus der Romantik ansieht sollte mal drauf achten. Einzelne Bäume sieht man auf vielen, aber selten einen  echten Wald.

Die Rettung des Waldes war der Übergang auf Braun- und Steinkohle als Brennstoff. Wälder wurden nun landwirtschaftlich angelegt und es entstand unser heutiger Wirtschaftswald. Dort dominiert meist eine Baumsorte, meistens schnellwachsende Buchen, Kiefern oder Fichten. Erst durch die Sturmschäden und vor allem bei Nadelhölzern die epidemisch sich ausbreitenden Schäden durch Borkenkäfern denkt man in den letzten Jahrzehnten um - zumindest teilweise. Es muss immer noch ordentlich sein. Unsere Familie hat ein kleines Waldstück, nach dem letzten Sturm bekamen wir einen Brief von der Gemeinde, wir müssten das Holz entfernen, das dort als Schaden entstand. Ne wir kann man nur Holz im Wald lassen.... Kein Wunder dass Baden-Württembergs erster Nationalpark es so schwer hat.

Erstaunlicherweise wurde gerade zu der gleichen Zeit als der Waldbestand sein Minimum erreichte, (vor rund 300 Jahren wurde in Deutschland die nachhaltige Forstwirtschaft "erfunden") Grimms Märchen gesammelt und veröffentlicht. In vielen Märchen kommt der Wald vor und selten kommt er gut weg. In dem Wald werden Hänsel und Gretel ausgesetzt, Rotkäppchen begegnet dort dem Wolf, in den Wald flüchten Brüderchen und Schwesterchen und ein Märchen heißt sogar "Die drei Männlein im Walde". Mit der damaligen Wirklichkeit hatte das nichts zu tun. Wölfe standen schon vor der Ausrottung und Wälder gab es damals weniger als heute.

Deutschland hat Glück: wir befinden uns in einer Region, wo der Wald wenn man nichts tut in kurzer Zeit nachwächst. Wir haben gemäßigte Temperaturen und nicht zu viel und nicht zu wenig Neiderschlag. Im Amazonas und den Tropen wird der Boden von viel Niederschlag weggespült. Rund ums Mittelmeer sind die Temperaturen so hoch, dass der Boden austrocknet und verweht wird wenn ihn nicht wurzeln festhalten. Zudem sinkt ohne Wald der Grundwasserspiegel ab. Wald ist normalerweise der natürliche Bewuchs überall, wo die Bedingungen vorliegen, das ist auf der Erde fast überall nur nicht nahe der Pole und in der subtropischen Zone wo sich eher Wüsten (Sahara, Australien) ausbreiten. In der Bibel kann man von den berühmten Zedern Libanons lesen. Die waren ein Exportgut bis nach Ägypten und Assyrien. Heute kann man die Zedern dort abzählen. Die Osterinsel war auch mal komplett bewaldet und dort kam der Kollaps der Kultur als die letzten Bäume gefällt waren. Selbst in der Savanne gäbe es Wald - wenn auch nur einen Trockenwald. Hier gibt es aber das neben dem Menschen wohl einzige Säugetier das den Wald rodet: Elefanten.

Erklären kann man die Verbindung der Deutschen mit dem Wald nicht, aber sie hat Folgen. Das Anfang der Achtziger auftretende Waldstreben zog nicht nur in die Sprachen anderer Länder ein, sondern führte auch dazu das in unser Parlament als erstes in der Welt eine ökologische Partei einziehen konnte.

Der Wald durchmacht übrigens eine Evolution: Wenn Wald erstmalig entsteht (z. B. nach einer Eiszeit) oder nach der Rodung des alten Waldes treten zuerst neben Stauden, Gräsern und niedrigen Sträuchern Pionierbäume auf. Bei uns meist Weiden, Pappeln, Birken und Rotbuchen. Diese Bäume wachsen schnell, werden aber nicht sehr hoch und das Kronendach ist nicht geschlossen. Die Beschattung reicht aber aus um Gräser am Boden am Wachsen zu hindern, womit auch langsam wachsende Bäume wie Eichen hochkommen können. Diese wachsen langsamer, werden aber viel größer, wenn sie größer als der Primärwald werden, beschatten sie diese Bäume und diese sterben ab. Schließlich sterben auch diese Bäume ab bzw. durch den dichten Bestand ist der Wald sehr empfindlich gegen Waldbrände - dann beginnt ein neuer Zyklus. Im Mittel sollte bei uns aber ein Wald aber ohne menschliche Eingriffe sehr dicht sein, unwegsam (viel Totholz am Boden) und auch wenn das vielen widerstrebt - es ist auch kein echter Mischwald, denn oft setzt sich eine Baumart durch. Nicht umsonst gibt es bei uns viele Orte die "Eichen oder "Aich" im Namen haben. Eichen werden nicht nur alt, sie werden auch sehr groß und sind sehr effektiv im beschatten des Boden, sodass andere bäume schwer groß werden (dazu werden ihre Samen durch Eichhörnchen, Eichelhäher und anderer Tiere schnell verbietet).

Heute kann man die Aufforstung in anderen Ländern bezahlen, wenn man sein gewissen beruhigen will. Das Prinzip: die eigenen Klimasünden werden bei einer "Co2-Kompensation" dadurch kompensiert dass man woanders Projekte finanziert, die Kohlendioxid binden, wie eben die Aufforstung. Besser wäre es wenn man bei uns die überschüssige landwirtschaftliche Fläche wieder in Wald umwandeln würde, und zwar sinnvoll, z.B. so, dass wir wieder verbundene Waldstücke haben anstatt einzelner Inseln in mitteln von landwirtschaftlicher Fläche. Das brauchen auch die Arten um zu wandern. Auch wären wenige größere Flächen besser als viele kleine verstreute Miniwaldstücke. Und naturbelassener Wald, zumindest aber Mischwald wäre auch nicht schlecht.

23.12.2104: Raumfahrtnachlese

Zwar ist das Jahr noch nicht vorüber, aber zu 97% ist es doch schon gelaufen. Zeit eine kleine Zusammenfassung zu machen. Wir haben in diesem Jahr zwei Jungfernflüge neuer Träger gesehen: Der Angara und der GSLV. Beide waren suborbital,, was schon etwas erstaunt. Diese Testmethode, erst mal die erste Stufe alleine zu testen dann die ganze Rakete ist doch außer der Mode gekommen. Die USA haben sie zuletzt bei den Saturn I eingesetzt, das war Anfang bis Mitte der Sechziger. Der letzte Einsatz überhaupt war bei der Europa-Rakete Ende der Sechziger. Russland testeten zumindest Trägerraketen nur einmal so getestet: Das war die Proton die zuerst in nur zweistufiger Version flog. Indien testete vorher niemals so ihre Träger. Für das Verfahren gibt es aber auch Gründe. Einer kann sein, dass man die erste Stufe schon flugbereit hat, die Oberstufen aber noch nicht. Indiens GSLV Mark III Entwicklung soll umgerechnet nur 400 Millionen Dollar gekostet werden - das zeigt deutlich das Lohngefälle zwischen und Indien. Auch Mars Orbiter der ja als erste asiatische Raumsonde seit September den Mars umkreist war preiswert: 74 Millionen Dollar, zum Vergleich: MAVEN die zeitgleich startete lag bei 450 Millionen Dollar also mehr las dem sechsfachen.

Der Vorbeiflug von Sidney Spring am Mars war wie von mir erwartet eine optische Enttäuschung. Daniel Fischer hatte ihn ja als ich zu Jahresanfang eine Vorausschau machte, als großes Ereignis angekündigt, aber ein einfacher Dreisatz zeigt dass  selbst die hochauflösende Kamera HIRISE aus den rund 200.000 km Entfernung (zehnmal weiter entfernt als Deimos) bei der zu erwartenden Kerngröße (zehnmal kleiner als Deimos) keine großartigen Bilder machen kann.

Dramatisch war die Landung von Philae. Leider erwies sich auch meine Prognose der ESA-Pressearbeit als richtig: An der Landung Aktionismus mit einigen Bildern und dann wieder Schweigen. Bevor jemand meckert: daran ist nicht nur die ESA schuld, sondern auch die Wissenschaftler. Die Instrumente stammen von nationalen Instituten und werden national finanziert, nur die Raumsonde und Operation stammt von der ESA. Aber so ist es auch in den USA und dort ist es möglich dass man mehr von der Mission erfährt. Man kann ja entsprechende Rahmenverträge die Öffentlichkeitsarbeit verpflichtend einschließen abschließen. Die Wissenschaftler haben nichts kapiert. Denn angesprochen auf die Problematik sagte einer im Interview, dass die Daten ja nach 6 Monaten alle in einem frei abrufbaren Archiv landen. Ja das tun sie, aber das ist wiederum etwas für Wissenschaftler. An Raumfahrt Interessierte oder nur durch Nachrichten auf das ESA-Portal gelockte Personen wollen zum einen jetzt was sehen, nicht erst in 6 Monaten und sie wollen Bilder oder Töne oder anderes in normalen Formaten ansehen, nicht die Rohdaten von einem FTP-Server herunterladen mit einem speziellen Programm in JPG oder ähnliches konvertieren. Sie wollen auch nicht alle Daten, aber einen kleinen Teil der etwas über den Kometen aussagt. Ja bevor hier jemand kommt, dass hinter einem solchen Projekt viele Jahre Arbeit stecken: Das ist wahr. Es ist aber auch war, dass niemand dies selbstlos macht. Jeder der Wissenschaftler ist beim Staat angestellt und bekommt ein Gehalt. Das wird vom Steuerzahler und nicht anderen Wissenschaftlern finanziert, genauso wie die Instrumente und die Sonde.

Besserung ist nicht in Sicht und das gilt nicht nur für wissenschaftliche Daten. Ich aktualisiere derzeit mein ATV Buch. Die Informationen dazu gibt es nicht auf der ESA Homepage, sondern im ATV Blog und den ISS Statusreports. Nichts gegen ersteres als Ergänzung zu zusammenfassenden und aufbereiten Informationen, aber er kann nicht letzteres ersetzen. Die ESA-Politik sieht man an einer gerade zu Ende gegangenen mission: Venus Express. Man verlor den Kontakt als man die letzten Treibstoffrest nutzen wollte um die Bahn ein letztes Mal anzuheben. 8 Jahre hat Venus Express die Venus untersucht. An wie viele ergebnisse können Sie sich erinnern, an wie viele Bilder? Wer sich an mehr als 10 erinnern kann, möge einen Kommentar hinterlassen. Und das ist dann die Öffentlichkeitsarbeit in acht Jahren ....

Es gab den medienwirksamen Aufenthalt von Alexander Gerst an Bord der ISS. Nachdem dieser gelaufen ist, kann man beim ESA Konzil auch den Ausstieg aus der ISS beschließen. Zumindest hat das Italien durchgesetzt. Dort wurde dann auch Wörner als neuer ESA-Direktor bestimmt. Der muss nun als neues und kostenintensivstes Vorhaben die Ariane 6 verwalten, gegen die er sich bei der DLR immer aussprach. Bedanken kann die französische Seite sich dafür, das man das durchsetzte, bei SpaceX. Mit der Firma konnte man bei den anderen Ländern enorm Angst machen. Hätte Zypries Ahnung vom Internet oder könnte sogar selbst recherchieren, dann würde sie in einer Stunde feststellen, dass:

Bedrohung sieht anders auf. Aber mit einer Firma die vor allem durch Videos und Ankündigungen Öffentlichkeitsarbeit macht, kann man gerne Bedrohungsszenarien aufbauen. Bei der Vorhersage der Startzahl habe ich wieder mal recht behalten, sogar wenn man es mathematisch moduliert kommt man auf das richtige Ergebnis, was mich selbst überrascht hat. Aber Mutter Natur ist eben ein böses Weib. Man kann die Öffentlichkeit täuschen aber nicht Mutter Natur und die rächt sich über mangelnde Qualitätssicherung eben mit abgebrochenen Statischen Tests oder der Auslösung des Selbstzerstörungssystems bei Landetests.

Ganz nebenbei gab es auch den ersten Test einer Orion. Die NASA testet noch wie zu Apollos Zeiten: Erst mal die Kapsel alleine, 2018 dann Kasperl mit Servicemodul und vielleicht 2020 dann mit der Besatzung. Ob die ESA nach diesen beiden Flügen noch das Servicemodul stellt? Ich wage zu prophezeien dass dem nicht so sein wird. Das darin investierte Geld ist klein verglichen mit dem was Orion bisher schon gekostet hat. Dagegen wird das CCDev Programm dieses Jahr erstmals die Mittel erhalten die die NASA beantragte. das war bisher imemr weniger gewesen, sogar deutlich weniger,, teilweise nur die Hälfte. Die SLS und Orion bekamen dagegen mehr als beantragt, da sieht man wo der Hase läuft. Da die NASA Aufträge an zwei Firmen vergeben hat wird's wenn wieder mal gekürzt wird es noc später mit dem Jungfernflug des ersten CCDev Flugs.

Seit ein paar Jahren habe ich das Gefühl in der Weltraumfahrt läuft einiges quer. Es gibt zu viele Doppelentwicklungen, unnötige Entwicklungen. Es wird zu viel Geld für Dinge rausgeschmissen das man besser verwenden könnte. 2014 hat diesen Eindruck nicht wiederlegt. im Gegenteil er hat sich weiter verfestigt.

Schwer erwischt hat es dieses Jahr Orbital, obwohl die Firma mit ATK fusionieren sollte. Der Fehlstart einer Antares wurde richtig teuer. Danach will man wohl keine NK-33 mehr einsetzen. Russische Ingenieure bezeichneten diese zweite Generation der Triebwerke als sehr zuverlässig. Anders als die erste Generation. Entweder stimmt das nicht oder die 40 Jahre Lagerung haben ihnen doch zugesetzt. Es gab zweimal Brände bei Vorabtests und einen Ausfall. Die Firma hat einen Start auf einer Atlas 401 gebucht. Das kostet sie mindestens 90 Millionen Dollar mehr als ihre eigene Trägerrakete. Die Nutzlast der Atlas die doppelt so hoch ist wird man nicht ausnutzen können. Nun hat man 20 RD-181 für 1 Milliarde Dollar gekauft. Die RD1-181 sind zwei RD-193 kombiniert, haben also mit dem RD-180 nichts zu tun. Dieses Triebwerk mit einer makellosen Bilanz wird nach der Ukrainekrise ja nun durch ein neues Triebwerk ersetzt. Für Orbital wäre es die bessere Lösung gewesen, wahrscheinlich billiger und schneller verfügbar. Dolch ich vermute da gab es rechtliche Probleme. So wird es richtig teuer: 1 Milliarde Dollar für 20 Triebwerke. Die Antares sollte bisher rund 85 Millionen Dollar kosten - das wird nun nicht mehr zu halten sein). Was die NK-33 Orbital kosteten, ist unbekannt, doch Aerojet kaufte sie vor mehr als einem Jahrzehnt für nur 1 Million Dollar pro Stück. Aber man wahr wohl in Zeitnot und brauchte schnell einen Ersatz. Viel Gewinn (wenn überhaupt) wird beim ersten CRS Kontrakt nicht herausspringen. Doch die Zahl von 20 Triebwerken spricht dafür dass man mit einem zweiten rechnet und nach den NASA Ausschreibungen wird man ab 2017 auch mehr zur ISS befördern.

25.12.2014: Eine Weihnachtsgeschichte

Ich habe mir vorgenommen zwischen den Jahren mal wieder einiges zu aktualisieren. den Anfang machte ich mit DSCOVR, der Raumsonde die im Januar zum Start ansteht. Der Aufsatz dürfte morgen online gehen. Bei der Recherche bin ich auch über etwas gestolpert, das sicher für viele die auch mal Missionen nicht nur zum Mars sehen wollen ein Weihnachtsgeschenk ist: es gibt wieder Bewegung beim Europa Orbiter.

Es gab schon eine Überraschung als bei der Genehmigung des letzten NASA Haushaltes das Projekt 100 anstatt der beantragten 15 Millionen Dollar bekam, die größte Steigerung (zumindest prozentual) aller Programme, aber auch absolut. Ich habe eigentlich gedacht das die Sonde niemals kommt. Der Europa Orbiter wird als Projekt so seit fast zwei Jahrzehnten prognostiziert. Er wird aufgrund der Anforderungen eine Flagship-Mission sein und eine solche leistet sich de NASA nur einmal pro Jahrzehnt. Die letzten drei waren Galileo, Cassini und Curiosity. Der Europa Orbiter wird wie der Titan Orbiter seit Cassini als Nachfolgeprojekt gehandelt und mit dem Beschluss ein zweites mobiles Marslabor zu bauen, scheint seine Zukunft noch unsicherer zu sein, bzw. wenn, dann kommt er noch später. Es gab nicht wenige Indizien, dass die NASA das Projekt ganz fallen lässt, auch weil Europa mit JUICE eine ähnliche Mission plant. Man hatte ja schon die Planung von einem echten Orbiter auf eine Vorbeiflugsonde umgestellt - nur Vorbeiflüge macht auch JUICE, nur nicht ganz so viele.

Am 23.12 wurde bekannt, dass die NASA in diesem Jahr eine Ausschreibung für Konzepte gab, die Mission entscheidend billiger zu machen. Die Kosten waren schon immer der Knackpunkt. Die NASA hat darauf reagiert indem sie die Mission von einem echten Orbiter auf eine Vorbeiflugsonde umstellte. Das reduziert den Treibstoffbedarf und die Strahlenbelastung. Trotzdem ist es noch eine Multimilliardenmission. Seitens des Senates gab man Bolden schon seit einigen Jahren den Hinweis, dass man die Kosten soweit drücken müsste, das eine "1" vor dem Komma da steht, also bei 1 bis 2 Milliarden. Bolden meinte mehrfach in Interviews, dass die NASA das könnte, doch selbst die neueste Mission hat ein Preisschild von 2,1 Milliarden Dollar.

Nun versucht die NASA bei der Mission das gleiche wie in der bemannten Raumfahrt. Sie hat eine Ausschreibung gestartet, in der die Industrie die Raumsonde eigenverantwortlich baut und startet. Die NASA ist nur beteiligt durch Lieferung der Experimente und nach dem Start, wenn die Mission durchgeführt wird. Die Industrie liefert die Raumsonde "schlüsselfertig" in den Jupitertransferorbit ab, hat dafür aber auch das Kostenrisiko zu tragen. Bei dem COTS Programm funktionierte dieses Konzept sehr gut. Aus den Vorschlägen der Industrie hat man im Juni drei ausgewählt, die mit jeweils 1,1 Millionen Dollar ein detailliertes Konzept ausarbeiten konnten. Mit den 100 Millionen Dollar sollen nun diese Konzepte bis zum Abschluss der Phase A weitergeführt werden und dann eines gewählt werden. Gleichzeitig werden damit Vorentwicklungen für Experimente finanziert.

Man weiß leider sehr wenig über die Randbedingungen. Seitens der NASA gab es nur folgende Angaben:

Die NASA hat Vorschläge von Lockheed-Martin, Ball Aerospace und SpaceX selektiert. Auch über die gibt es nur wenige Informationen, vorwiegend in Foren, sodass man eine gewisse Skepsis haben soll.

Lockheed Martin will eine Sonde bauen die stark an das letzte NASA Konzept aufbaut. Das verwundert nicht, war LM doch bisher auch an der NASA Planung beteiligt. Die Kostenersparnis kommt hier durch drei Faktoren zustande: Keine Verzögerungen und Zusatzarbeit durch Beteiligung von Behörden, Ersatz der MMRTG durch die von LM und dem GSFC fast zu Ende entwickelten SRG, die auf dem Stirling Motor basieren und so viermal weniger Plutonium brauchen (das alleine macht einen Betrag von rund 200 Millionen Dollar aus) und Start mit einer Atlas 401 und drei Vorbeiflügen an Venus und erde anstatt zwei wie beim NASA-Referenzdesign.

Ball Aerospace ist deutlich innovativer. Es ersetzt die nukleare Stromversorgung durch einen thermodynamischen Zyklus. Bei diesem nach dem Prinzip des Carnot-Zyklus verdampft die Sonne ein Kühlmittel im Brennpunkt eines Parabolspiegels und dieses Gas treibt eine Turbine an welche Strom erzeugt. Dabei wird es verflüssigt und erneut in den Brennpunkt geleitet. Der Wirkungsgrad beträgt wie bei den SRG 30%. Um bis zum Jupiter zu kommen, wird man aber drei Systeme mit unterschiedlichen Flussmitteln einsetzen müssen: vorgesehen sind Wasser, Freon und Methan. Das ist nötig, weil bei Jupiter bis zu -90°C herrschen und dort nur Methan als Arbeitsmedium in Frage kommt. Das Konzept von Ball Aerospace kommt ohne Fly-Bys aus, stattdessen will man die in Erdnähe reichlich vorhandene Überschlussleistung nutzen und Ionenantriebe einzusetzen. Sie bringen die Sonde nicht nur in 4 Jahren zum Jupiter sondern senken auch den Geschwindigkeitsbedarf für das Einschwenken in den Orbit. Die Sonde soll mit einer Falcon Heavy gestartet werden.

Das SpaceX Konzept ist wie zu erwarten, das ungewöhnlichste. Nachdem die Firma schon ihre Dragon als Marssonde anpries, hat sie nun auch die Jupitersonde auf diesem Konzept aufgebaut. Die Raumsonde wird eine umgebaute Dragon Kapsel sein. Die Instrumente, die keinen direkten Kontakt zur Außenwelt brauchen werden in die Kapsel verfrachtet, so Kameras und Spektrometer die dann durch ein Fenster Jupiter beobachten. Ebenso die gesamte Elektronik. Die Anforderungen hinsichtlich Abschirmung und Thermalhaushalt sinken damit erheblich ab. Die anderen Experimente kommen in den Trunk. Die Stromversorgung geschieht mit zu entwickelnden leichtgewichtigen Dünnfilm-Solarzellen die wie eine Folie aufgespannt werden und fast 100 m² Fläche belegen sollen.

Natürlich wird die Raumsonde mit einer SpaceX Rakete gestartet, aber nicht mit einer Falcon Heavy. Vielmehr eine noch zu entwickelnde Rakete mit den Treibstoffen Methan/LOX und dem Raptor Triebwerk. Alleine zwei Drittel der Mittel sind für die Entwicklung dieser Trägerrakete und den Start vorgesehen. Die letzte Stufe soll angekoppelt bleiben und die Sonde dann auch in den Jupiterorbit bringen. Feinjustagen erfolgen dann mit den Treibstoffvorräten der Dragon. Dieses Konzept wird den Jupiter am schnellsten erreichen - in nur 2 Jahren.

Mehr und was jedes Konzept kostet gibt es nicht von der NASA. Doch alle drei lägen unter 1 Milliarde Dollar für den Industrieanteil.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99