Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 401: 22.11.2014 - 27.11.2014

22.11.2014: Ernüchterung bei der bemannten Marsexpedition

Ab 1967 starteten die USA ihre zweite Serie von Explorern zur Erforschung des interplanetaren Raums. Diese bewegten sich auf weitgeschwungenen Ellipsen weit hinaus ins All, weiter als das Magnetfeld der Erde reichte. Nachdem IMP-F schon vor der ersten Mondlandung verglühte, wollte die NASA mit IMP G-J die Apollomissionen absichern. Die Satelliten sollten mit ihren Sensoren ermitteln, wenn ein Partikelsturm die Erde erreicht. Man konnte damals keine Vorhersage treffen, wie dies heute bei Sonnenstürmen der Fall ist, aber man hätte je nachdem wo die Mission gerade ist, entweder das CSM so gedreht, dass das Serviceteil zur Sonne zeigt und so die Masse an Treibstoff, Sauerstoff und Wasser schützt, oder wenn die Besatzung auf dem Mond gewesen wäre, hätte sie je nach Schwere und momentaner Arbeit sofort zur Mondfähre zurückkehren oder sogar zurück in den Orbit starten müssen.

Keine Mondmission war wirklich gefährdet, doch Apollo 16 entging nur wenige Tage einem starken Sonnensturm. Die IMP blieben länger in Betrieb, sie wurden ab 1977 durch ISEE 1-3 ergänzt und ähnliche Messungen, nicht nur in Erdnähe machten auch Pionier 6 bis 9. 1990 hatte die NASA damit die Daten über die Sonnenaktivität über mehr als einen elfjährigen Zyklus beisammen und ging daran diese auszuwerten, vor allem was die Strahlenbelastung jenseits des Erdmagnetfeldes angeht. Das Ergebnis muss ihr nicht gefallen haben. Mediziner errechneten, das mit der üblichen Abschirmung von Raumfahrzeugen wie den Apollokapseln oder damals gerade im Bau befindlichen Space Shuttles, bei einer dreijährigen Marsexpedition die Besatzung mit einer Wahrscheinlichkeit von 60% innerhalb von 5 Jahren nach Missionsende an der Strahlenbelastung bzw. induziertem Krebs und Erbschäden sterben würde, über 10 Jahre wären es sogar 90%. Startet die Besatzung während der drei Jahre der höchsten Belastung so wird sie mit 30% Wahrscheinlichkeit nicht mal die Mission absolvieren können.

Natürlich kann man sich gegen Strahlen schützen, am besten durch Stoffe mit einem hohen Wasserstoffenteil, idealerweise Wasser oder Kunststoffe. Das ideale Medium ist Wasser. Doch selbst davon muss der Schild beim Mars 3 Fuß und in Erdnähe 8 Fuß (rund 2,40 m) dick sein. Das wiegt dann so viel, das es die Missionen extrem verteuert. Als die Daten vorlagen, entschloss sich die NASA sie nicht zu veröffentlichen. Reagan war Präsident geworden und begann schon kurz nach dem Amtsantritt das gesamte Forschungsprogramm zusammenzustreichen, zahlreiche Planetenmissionen wurden gestrichen, sogar Galileo die damals gerade zusammengebaut wurde sollte eingestellt werden. In diesem Klima die Daten zu veröffentlichen, so dachte man wohl würde das Projekt eines Geologieorbiters gefährden (er wurde als Mars Observer trotzdem erst Jahre später genehmigt und fiel vor Erreichen des Orbits aus). Später kamen sie unter Verschluss, weil die NASA befürchtete ihr Marsprogramm, das seit 1996 Starts alle zwei Jahre umfasst würde eingestellt werden, wenn man der Öffentlichkeit sagen müsste, dass man wohl niemals mit vertretbaren finanziellen Mitteln zum Mars gelangen können.

So verwundert es nicht, das 1989 als Bush die NASA nach einem Plan für eine Marsexpedition fragte, diese die Kosten auf 400 Milliarden Dollar schätzte, also rund 700 Milliarden im Wert von heute. Um die Besatzung zu schützen, sollte die Expedition wieder am Schluss in einen Erdorbit einbremsen. Der dafür nötige Treibstoff war der Schutz auf der Heimreise, sonst wäre er nach Verlassen des Marsorbits verbraucht. Auf der Marsoberfläche sollte die ebenfalls der Treibstoff und die Wasservorräte schützen. Er würde in drei Tanks in der Mitte auf dem Habitat untergebracht werden. Dorthin sollte die Besatzung flüchten - eng wäre es geworden, denn der Raum war nur 5 x 5 Fuß (1,5 x 1,5 m groß).Meistens dauern Sonnenstürme aber nur wenige Stunden. Inzwischen war es auch möglich vorzuwarnen. Je nach Position des Beobachtungssatelliten und der Mission sogar zwei Tage im Voraus. Aber Bush waren die Kosten aufgrund der viermal höheren Startmasse als bei einer Landung ohne in den Erdorbit einzubremsen, zu hoch und die NASA muss sich seitdem den Vorwurf anhören sie wäre nicht wagemutig genug, vor allem von Robert Zubrin und seinen Anhängern.

Die NASA unterrichtete nicht einmal die anderen Raumfahrtagenturen. Die Computer von Phobos 1+2 wurden durch Strahlenstürme so geschädigt, dass sie Programme falsch ausführten und die Sonden von der Erde wegdrehten (wahrscheinlich waren die Kommandos durch umgekippte Bits verändert), Japan verlor ihre Raumsonde Nozomi durch Sonnenstürme und Ausfälle des Computersystems von Hayabusa führten fast auch zum Scheitern dieser Mission.

So verwundert es nicht, dass auch der Strahlenmesser MARIE an Bord von Odyssey 2001 nach weniger als 2 Jahren ausfiel - er sollte die Strahlenbelastung messen, war aber viel zu empfindlich. Man hat dazugelernt und Curiosity hat einen robusteren Apparat an Bord. Ihm ist es auch zu verdanken, dass man nun die Wahrheit erfuhr, denn während die Wissenschaftler auf den Pressekonferenzen immer um den Faktor 10 zu niedrige Werte veröffentlichten, gelangten die Originaldaten ins PDS, dem NASA Server für wissenschaftliche Rohdaten. Dort hat sie nun jemand ausgewertet und ist auf die Diskrepanz gestoßen. Auf diese angesprochen musste man aufklären.

Vieles andere macht nun auch Sinn, so die NASA-Planungen für Marsexpeditionen in den frühen Siebziger Jahren die alle auf sehr kurze Missionsdauern ausgelegt waren, mit nur wenigen Tagen bis Wochen Aufenthalt beim Mars - man wollte das Strahlenrisiko so minimieren, auch wenn diese mit ihrem hohen Geschwindigkeitsbedarf in kurzer Zeit praktisch nur mit nuklearen Triebwerken möglich waren.

Noch fehlt eine Stellungname von Befürwortern von kurzen Marsmissionen oder gar der Marskolonisation wie Zubrin oder Musk. Wenn man mich fragt leben die aber sowieso in einer Parallelwelt in der Menschenleben nicht viel zählen (Marsmissionen ohne Rückkehr - Zubrin) oder jenseits allen finanziellen Möglichkeiten (Marskolonisation mit 10.000 Personen - Musk), da ist das nur ein kleines Hindernis im Gedankengebäude.

24.11.2014: Ich verstehe es nicht

... und zwar die ESA-Kalkulation bei der Ariane 6. Zur Erinnerung: Die "neue" Ariane 6 ist ist nichts anderes als eine Rakete mit einer kryogenen Zentralstufe (mit Vulcain 2), einer kryogenen Oberstufe (mit Vinci) und zwei oder vier P135 Booster (halbe Treibstoffmenge und Länge wie die EPS Booster der Ariane 5.

Gebaut wird sie ja um Geld zu sparen. Ein Ariane 5 Start kostet 165 Millionen Euro. Die Ariane 6 war in der alten Konzeption auf 70 Millionen Euro Startkosten bei 7 t Nutzlast ausgelegt. Bei der neuen Konzeption ist nach einer Drucksache des Bundestags die Nutzlast 5,8 bzw.. 10,6 t bei 80 bzw. 90 Millionen Euro.

Was aber offen bleibt ist: wie soll die Rakete billiger werden? Was ich an Unterschieden zur Ariane 5 ME sehe sind nur die Boostergehäuse und eine kleinere Zentralstufe. An dem Hauptkostenträger, dem Vulcain 2 hat man nichts geändert, dabei hat die ESA selbst für die Ariane 5 Weiterentwicklung ein einfacheres und kostengünstigeres Triebwerk vorgeschlagen. Ich kann mir nicht vorstellen, das einige neue Tanks die Rakete so verbilligen. Auch bei den Boostern dürften die FW-Gehäuse wohl billiger sein, aber sicher auch kein großer Schritt. Sicherlich kommt man so nicht zu Kosteneinsparungen in Höhe von 89 Millionen Euro.

Was auch angesprochen wurde und wohl mehr ausmacht, ist die Neustrukturierung der Produktion. Es wurde ja schon gefordert die Ariane 6 nur an zwei bis drei Standorten zu bauen, anstatt wie bisher quer durch Europa verstreut. Das leuchtet mir ein, doch leuchtet mir nicht ein, warum man dazu eine neue Rakete braucht. Im Prinzip könnte man die EPC komplett in Frankreich bauen, Italien könnte den Auftrag für neue Booster bekommen und diese komplett fertigen. Im Gegenzug würde man in Bremen das Vinci in Lizenz fertigen und die Oberstufe samt VEB bauen. Das erfordert auch Investitionen, aber sich nicht so viele wie eine neue Rakete. Zudem könnte man da ja auch gleich die zwei Booster durch mehrere kleine ersetzen. Idealerweise ein 6-er System wie hier auch schon vorgeschlagen (erlaubt 2,3,4 und 4+2 Booster und damit eine bessere Anpassung an die Nutzlast und Steigerungsmöglichkeit).

Meiner Ansicht nach wird aber die Ariane 6 nicht so billig sein. Ich kann mir nicht vorstellen wie man bei gleicher technischer Auslegung die Rakete im Preis halbieren kann. Man darf nicht vergessen, dass die ESA zwischen 2005 und 2010 insgesamt 960 Millionen Euro an die Industrie zahlte nicht nur um Verluste bei der Vermarktung aufzufangen, sondern auch um die Fertigung umzustrukturieren. Offensichtlich ist das nicht gelungen oder das Geld ist versandet. Wer sagt dass es bei der Ariane 6 nicht anders ist.

Derzeit wird ja SpaceX als Grund angeführt. Wie immer passen aber Fakten nicht so richtig zusammen: Die Starts dieses Jahr waren alle subventioniert mit 21 bis 50 Millionen Dollar pro Start (regulärer Preis 61,2 Millionen Dollar).

Dieses Jahr gewann die Firma gerade mal drei Kontrakte (nun wird wohl der normale Preis verlangt und neue Kunden müssen sich auch hinten ins Startmanifest einreihen), während es bei Arianespace 14 war. Bei der letzten Ausschreibung hat man gar nicht mehr mitgemacht, weil man keine Startkapazitäten frei hat. Also irgendwie passt das nicht zur Bedrohung

Die Ariane 5 ME soll nach der Schriftsache im Bundestag 170 Millionen Euro pro Start kosten. Sie wird 12 t im Einzelstart transportieren. SpaceX verlangt 61,2 Millionen Dollar für eine Falcon 9 und 85 Millionen für einen 6,4 t Satelliten auf der Falcon heavy. Da die angaben von SpaceX für den 28 Grad Orbit sind, aber der von Ariane erreichte 5 Grad Orbit die Referenz ist nimmt die Nutzlast ab. Bei der Falcon 9 nach SpaceX angaben auf 3,5 t. Bei einer entsprechenden Reduktion bei der Falcon Heavy wären es dort 4,62 t. Mit zwei Sylda-5 könnte eine Ariane 5 ME netto 11 t im Triplestart transportieren, das wären z.B. 3 x 3,5 t. Bei etwas leichteren Satelliten wäre auch eine Kombination von 1 x 4,6 und zweimal 3,2 t möglich. Das würde bei SpaceX Preisen 183,6 und 207,4 Millionen Dollar oder 147 bzw. 167 Millionen Euro bei dem heutigen Wechselkurs entsprechen. Ich sehe also nicht den großen Preisunterschied. (Zumal SpaceX bei NASA und DoD auch kräftig zulangt: 83 Millionen Dollar für Jason-3 bei der NASA und 96 Millionen Dollar für DSCOVR bei dem Dod. Das entspricht 10% bzw. 30% Aufschlag wegen Bürokratie. Hier sieht man zum einen Sparpotential in Europa und zum anderen entsprechen 83-10% 75 Millionen Dollar und 96-30% 74 Millionen Dollar, also gar nicht den angekündigten Preisen ....)

Das einzige ws Ariane 5 derzeit nicht kann, was aber auch bei der Ariane 6 nicht gegeben ist, ist die Rakete zu verbilligen wenn die Nutzlast nicht gefordert wird.

Was wäre mein Vorschlag, wenn man sich zu einer neuen Rakete durchringt (wovon ich immer noch nicht überzeugt bin). Nun es ist der nächste Schritt. Wenn SpaceX mit der Bergung Erfolg hat wird selbst eine Ariane 6 unter Preisdruck kommen, dann wird man erneut nach einer neuen Rakete schreien. Warum nicht gleich zu einer Wiederverwendung übergehen? Ich fand das vom DLR SA/RT Institut ausgearbeitete LFBB Konzept überzeugend. Das sind zwei EPC mit einfacheren, aber schubstärkeren Vulcain 3R. Die Booster haben Flügel und einen Turbofanantrieb der den restlichen Wasserstoff im Treibstofftank verbrennt. Sie fliegen nach einer ballistischen Phase angetrieben zurück zum Startplatz. Das klingt nach einem Konzept das konventioneller ist als das von SpaceX, aber auch weniger riskant. Man muss nicht die Bahn umdrehen und mit Treibstoff zum Startplatz zurückfliegen und hat dort nur eine Chance zu landen, sondern man setzt eine Technologie ein, welche die Luftfahrt seit rund 100 Jahren nutzt., Der Haken: Es werden nur die Feststoffbooster ersetzt, die sind das billigste an der Rakete. Ideal wäre es die Zentralstufe zu bergen, doch die wird bei höherer Geschwindigkeit abgetrennt (viel höhere Belastung beim Wiedereintritt) und zum Startplatz kann sie auch nicht zurückfliegen, denn sie hat schon einige Tausend Kilometer zurückgelegt, aber vielleicht auf Ascension Island oder an der Westküste Afrikas könnte sie landen.

25.11.2014: Projekt Treasuresat

Bisher war die Erderkundung eine Domäne von Regierungen und Regierungsorganisationen. Auch wenn es seit 20 Jahren durch Firmen gebaute und gestartete Satelliten gibt - wie die von Digiglobe betriebene Flotte, Aber auch sie ist nicht möglich wenn nicht die NRO die meisten Aufnahmen abkaufen würde. Dasselbe gilt für die französischen Plejades Satelliten und die TerraSAR / Tandem-X Konstellation. Bei der kennt man wenigstens den Industrieteil: Ein Drittel der Projektkosten.

Nun machen sich gleich mehrere Unternehmen auf, Satelliten zu starten ohne auf institutionelle Anleger als festen Kundenstamm zu setzen. Ein Ansatz ist der von Planet Labs die 3U Cubesats in großer Zahl starten. Jeder Satellit ist preiswert, auch der Start als Sekundärnutzlast ist kostengünstig. Aber er hat nur eine begrenzte Auflösung, Sendeleistung und auch Lebensdauer, da die meisten von ihnen bisher als Sekundärnutzelasten bei ISS Missionen gestartet wurden - da treten sie innerhalb von zwei Jahren wieder in die Erdatmosphäre ein.

Ein anderes Konzept vertritt das Unternehmen Treasuresat LLC. Sie will einen Satelliten entwickeln mit dem sie nur bestimmte Dinge untersuchen will, die Aufnahmen selbst auswerten und nicht veröffentlichen will. Sie stehen offen jedem Anteilseigner, dadurch will sich Treasuresat auch finanzieren. Jeder Anteilseigner erhält einen zur Größ0e des Anteils proportionalen Teil der Beobachtungszeit des Satelliten.

Auf die Idee für Treasuresat kam Jim Warren, der Gründer der Initiative und des Unternehmens durch Sarah Parzak. Die Archäologin nutzte erstmals Aufnahmen der Digiglobe Satelliten Ikonos und Worldview und konnte durch die Kombination von sichtbaren Kanälen und Infrarotaufnahmen innerhalb eines Jahres 132 archaologisch bisher unbekannte Stätten auffinden, darunter eine nie fertiggestellte Pyramide und ein Gräberfeld mit 3000 Gräbern. Nun ist in vielen Ländern der Erde Schatzsuche erlaubt, so auch in den USA, wobei hier aber die Schätze nicht nur kulturellen Wert haben, sondern auch materiellen - es muss noch Hunderte von versunkenen Galeonen vor der amerikanischen Küste und in der Karibik geben, die noch nicht entdeckt sind.

Sarah Parcak konnte mit den Infrarotaufnahmen Veränderungen des Bodens bis in einige Meter Tiefe ausmachen. Das ist möglich, weil durch Graben, aber auch Mauerreste, Holz, das Humus bildete etc. die Wärmeabgabe des Bodens sich von der Nachbarschaft unterscheidet, Die Infrarotaufnahmen zeigen dies, sind aber zu niedrig auflösend, um die Stelle ausreichend genau detektieren zu können und die visuellen Aufnahmen erlauben diese Zuordnung, denn sie sind höher auflösend. Daher werden sie als Overlay über die niedrigauflösenden gelegt.

Leider scheitert diese Methode sobald man mehr als 2-3 Meter Tiefe erreicht und sie scheitert auch wenn das Gelände überbaut ist. Im Meer kommt man tiefer, weil Hindernisse die Strömung beeinflussen, die wiederum die Temperaturn beeinflusst, aber auch kaum tiefer als 10 m. Dieser Bereich ist heute aber auch schon so bekannt, denn so weit können selbst Hobbytaucher vordringen. Interessant wäre der Bereich der Profiequipment zugänglich ist und den man von der Oberfläche aus nicht einsehen kann, ab einer tiefe von 30 bis ungefähr 100 m.

Doch es gibt Technologien mit denen man so tief kommt: RADAR. Radar kommt selbst zwar nicht so tief, kann aber Strömungen weit unterhalb der Oberfläche nachweisen, vor allem wenn man verschiedene Wellenlängen kombiniert. Die primäre Nutzlast besteht daher aus einem Radargerät mit drei Sensorarrays im L-Band, C-Band und X-Band, mit Wellenlängen von 0,3 m, 0,08 m und 0,04 m. Im Meer dringen diese Radarstrahlen unterschiedlich tief ein, zwischen 30 cm um 10 m. Aus der Differenz der Strömungen, die man durch Dopplerverschiebung der Signale bestimmen kann, wird man auf Hindernisse in bis zu 100 m Tiefe zurückschließen können. An Land erlauben die Signale auch Rückschlüsse über Bauten die überwachsen sind. Das L-Band dringt rund 1 m tief ein, das C-Band wird vom Boden reflektiert und das X-Band schon von der Vegetation. So kann man schnelleren Wuchs (höheren wuchs) und dichteren Wuchs wie auch Wachstumsstörungen nachweisen. Dazu kommen Störungen des Oberflächenprofils (nachweisbar durch das C-Band Radar) und Ungleichmäßigkeiten in der Bodenstruktur die man im L-Band nachweisen kann.

Diese Effekte konnte Jim Warren nachweisen, zum einen mit der Auswertung von Aufnahmen der Shuttle Missionen von bekannten Fundstätten, zum anderen auf Verweise von Entdeckungen mit diesen Aufnahmen wie einem Kanalnetz der Majas schon bei der ersten Mission. Auch bei der bisher letzten Shuttle Mission konnte man im Dschungel weitere bisher unbekannte Majabauten entdecken.

Um die Radaraufnahmen zu ergänzen gibt es einen aktiv gekühlten Infrarotsensor, empfindlich in zwei Spektralbereichen: bei 10,5 Mikrometern im thermischen Infrarot und bei 0,9 und 1,9 Mikrometern in zwei Absorptionsbanden von Tonmineralien und Basalt. Damit will man Veränderungen des Wärmeflusses und der Oberflächenzusammensetzung feststellen. Ergänzt wird dies durch einen Sensor im visuellen Bereich der parallel ausgerichtet ist und die kontextaufnahmen macht. Er wird aber auch genutzt: Ein Filter lässt nur das Licht von 660 bis 690 nm durch, dem Absorptionsmaximums des Chlorophylls. So kann man schnelleres oder langsamere Wachstum erkennen.

Treasuresat soll für weniger als 60 Millionen Dollar gebaut und gestartet werden. Das geht bei diesem Budget nur bei Verzicht auf Komplexität der Instrumente. So werden die Radargeräte nur  1,5 m Größe und 30 m Auflösung aufweisen, die IR-Sensoren 5 m und der visuelle Sensor 1,2 m. Eingesetzt wird ein BCP-2000 Bus von Ball Aerospace. Den gab es noch günstig als "Restposten", denn er wurde 2006 durch den BCP-5000 Bus abgelöst.

Der Satellit wird zusammen mit einer CRS Mission wahrscheinlich 2017/187 gestartet werden. Treasuresat LLC hat einen Vorvertag mit SpaceX abgeschlossen, die wohl die Tatsache ausnutzen, dass die CRS Missionen die Nutzlastkapazität der Falcon 9 nicht ausnutzt. Das der Satellit dann nur in eine 52 Grad Bahn gelangt macht nichts aus, da alle archäologisch interessanten Gebiete sich bei niederen Breiten befinden. Er soll sich dann mit den eigenem Abtrieb in einen 600-700 km hohen Orbit bringen. Dieser Antrieb wird auch genutzt um die Begrenzung der Auflösung durch mehrere Aufnahmen auszugleichen - geplant sind pro Umlauf nur 4-5 Ziele die jeweils über mehrere Orbits aus unterschiedlichen Perspektiven (beim Überflug von vorne und hinten, bei den folgenden Orbits von der Seite) aufgenommen werden. So entstehen zahlreiche Aufnahmen aus verschiedenen Blickwinkeln die nicht nur eine 3D-Ansicht erlauben sondern in ihrer Summe auch viel höher auflösend als jede Einzelaufnahme sind. Entsprechende Techniken werden schon seit langem in der Astronomie eingesetzt.

Kritik gab es an dem Projekt schon im Vorfeld, obwohl noch keine 30% der Finanzierung stehen. So würde man in großem Stile Raubgräber unterstützen die innerhalb von wenigen Jahren alle noch bisher unbekannten archäologischen Stätten plündern und zerstören würden. Nach Angabe von Treasuresat LLC sind stammen 40% der Investoren aus den USA, 15% aus Ägypten. Investoren aus dem Irak, Sudan und Mexiko würden zwischen 5 und 10% der Anteile halten. Weiterhin würden 15% der Anteile von Universitäten und anderen Forschungseinrichtungen kommen

Noch stehen aber 70% der Finanzierung aus. Beteiligen kann sich jeder der die Aktien an dem Unternehmen kaufen will. Allerdings kostet jede der 70.000 Aktien 100.000 Dollar, also nichts für arme Leute, Ein Anteil berechtigt für die Untersuchung eines Ziels. Im ersten Jahr sollen 15.000 bis 20.0000 Ziele, in der auf 5 Jahre angesetzten Primärbetriebszeit dann die 70.000 Ziele die den Anteilen entsprechen beobachtet werden.

Das Recht an den Aufnahmen haben diejenigen die sie in Auftrag gaben. Zumindest von den institutionellen Anlegern wird man wohl welche sehen. wahrscheinlich auch von mehr, denn eine US-Firma will diesen Service dann an Kunden vermieten denen ein Anteil zu teuer ist und mehrere dieser sammeln und eine gemeinsame Aufnahme finanzieren lassen (der Satellit soll mit Radar ein Gebiet von 100 km Breite und im visuellen Bereich eine Gebiet von 30 km Breite ablichten).

26.11.2014: Das Ende eines Grundsatzes

Auch so könnte man ein Fazit aus den Benchmarks ziehen, welche die ct in ihren aktuellen Heft veröffentlicht. Sie hat Prozessoren von AMD und Intel unterschiedliche Benchmarks laufen lassen und auch die Prozessoren waren bunt gemischt - vom 35 Euro Exemplar bis zum neuen 950 Euro iCore i7 Haswell-EP Flagschiff.

Ich hatte jahrelang als Grundsatz beim Rechnerkauf bei allem auf die Mitte zu achten. Also bei Arbeitsspeicher, Prozessor, Festplattengröße. Damit bin ich immer gut gefahren. Man kann das auch gut begründen. Bei Festplatten ist es so, dass wenn man mehr Geld ausgibt, die Kapazität zuerst überproportional ansteigt, um dann stark abzuflachen. Bei Arbeitsspeicher bedeuten zu wenig, dass der Rechne rstark ausgebremst wird, weil viel auf die Festplatte ausgelagert ist, ist er zu groß wird er eventuell gar niemals vollständig genutzt. Bei Prozessoren gab es lange Zeit auch die Beziehung dass die Leistung jenseits der billigsten Exemplare zuerst stark anstieg und man bei den teuren Exemplaren extrem viel drauf zahlt für wenig Mehrleistung.

Wenn man das richtige Benchmark nimmt, findet man das auch noch in der ct bestätigt, so erreicht ein Celeron J1900 (35 Euro) 5% der Leistung eines ICore i7 5960X (950 Euro) - zumindest im Linpack Benchmark. Man kann aber auch mal sehen, wie schnell der Prozessor bei Benchmarks mit real existierenden Anwendungsprogrammen ist so der Office PC Mark 8 oder Sysmark 2014. Da kommt er Celeron schon auf 50-60% der Leistung des genannten iCore Prozessors. Der in etwa gleich teure Celeron G1840 erreicht sogar 80%. Wie diese enorme Diskrepanz?

Nun wir verdanken sie Intel, die seit dem Pentium MMX ihre Prozessoren vor allem auf SIMD Anweisungen getrimmt haben. Alle neuen Befehle, die mit SSE (1-4) und AVX (1-2) einzogen, waren Fleißkommaoperationen die mehrere Werte auf einmal bearbeiten (Single Instruktion, Multiple Data). Das hat den Vorteil, dass schon der Befehl Parallelität vorsieht man so also mehrere Rechenwerke gleichzeitig beschäftigen kann. Die Register wurden so auf 256 Bit erweitert, die dann bis zu 8 einfach genaue Zahlen aufnehmen. Bei AVX gibt es eine Instruktion, die in einem Takt eine Addition und Multiplikation durchführt. Wird diese eingesetzt dann erreicht ein ICore Prozessor pro Takt und Kern bei einfacher Genauigkeit 16 FLOPS, mithin erreicht der iCore 5960 rund 768 GFlops Spitze, Ansonsten sind es bei AVX immerhin noch 8 FLOPS pro Takt.  Während der Celeron ohne AVX nur auf 48 GFlops kommt - dass ist so ziemlich genau das Verhältnis bei Linpack, dieses Programm war schon früher bekannt bei Vektorrechnern nahe an der theoretischen Peakperformance zu liegen.

Leider gibt es zwei Einschränkungen: Ohne Unterstützung von AVX sinkt die Performance auf ein Achtel bis ein Sechzehntel ab. Das kann gegeben sein weil die Instruktionen nicht verwendet werden (sehr oft bei Standardsoftware die nicht für jede CPU neu kompiliert wird) oder sie zwar genutzt werden, aber es nur wenige Fälle gibt, wo man sie einsetzen kann.

Die meiste Software die ein Durchschnittsbenutzer nutzt verarbeitet Ganzzahlen. Dazu gehören Browser aber auch Office und bei Ganzzahlen unterscheiden sich teurer iCore und billiger Celeron kaum. Beide haben die gleiche Anzahl von Rechenwerken. Wenn der iCore schneller ist, dann nur weil sein Takt höher und der Cache größer ist. Auch bei den Encodierung und Bildbearbeitung hat man es oft mit Ganzzahlen zu tun, schließlich sind die Farben von Bildpunkten, Helligkeit und Kontrast ganze Zahlen. Hier kann ein iCore seine vielen Kerne ins Rennen werfen, denn diese Operationen sind gut paralellisierbar.

Ein weiterer Punkt wird vom Autor schon in einigen Artikeln beklagt. Das es seit 2005 Mehrkernprozessoren gibt, aber die meisten Anwendungen Single-Threaded sind, also nur einen Kern ausnützen. Man sieht Journalisten sind keine Programmierer. Es gibt Dinge die kann man parallelisieren und Dinge die kann man nicht parallelisieren. Das erste ist möglich wenn man mehr als einen Benutzer bedienen muss wie dies der Fall bei einem Web Server, Datenbankserver kurzum bei einem Server an sich ist (die meistens mehr als einen Client sprich Nutzer "bedienen"). Es ist auch gegeben, wenn man wie im Supercomputerbereich eine Aufgabe hat die eine Berechnung für viele Elemente in identischer Weise durchführen muss. Das ist bei allen Problemen des Supercomputing der Fall egal ob sie das Teilchenverfahren, Finitive Elemente oder das Differenzverfahren einsetzt.

Im ersten Fall steht jeder Thread für einen Benutzer, im zweiten für einen Ausschnitt des Problems. Dagegen sind Benutzer die alleine vor dem PC arbeiten eine Spezies die weder mehrfach vorkommt, noch mehrere parallele Aufgaben initiiert. Wer Surft ruft eine Seite auf und die muss der Browser von oben nach unten rendern, parallel kann er wenig machen, weil die Elemente voneinander abhängen. Auch JavaScript nutzt nur einen Thread. Er kann lediglich mehrere Seiten parallel verarbeiten oder vorrausschauend den Links folgen und die nächsten Seiten ebenfalls laden und vorbereiten. Ähnliches bei der Textverarbeitung da die Benutzeraktionen kaum vorhersehbar sind kann man da wenig parallel machen. Allenfalls eine Rechtschreibprüfung und Seitenformatierung kann parallel im Hintergrund laufen. Natürlich gibt es auch im PC Bereich gut paralellisierbare aufgaben wie Bild- oder Video Bearbeitung. Doch diese auch für die ct' genutzten Benchmarks (häufig eingesetzt wird z.B. der Cinebench) hat bei den meisten Leuten kaum Bedeutung, weil die selten Tausende von Fotos bearbeiten oder mehrere Stunden am Tag Videos transkodieren (zum Ansehen, also dekodieren reicht selbst ein schwachbrüstiger Atom aus).

Eas bleibt? Für den Notmalnutzer spielt die Integer Performance eines Threads die wichtigste Rolle, die hängt wenn man die Atoms mal außen vor lässt bei den meisten Prozessoren primär von der Taktfrequenz ab, sekundär dann noch von der Cachegröße und Geschwindigkeit. Hier gibt es keine großen Unterschiede, selbst billige Prozessoren erreichen über 2,5 GHz, die teurste aber auch nur knapp über 4 GHz. Für 50% mehr Performance muss man aber ein vielfaches des Preises zahlen. Damit lohnt sich bei Prozessoren die Mittelklasse fast kaum noch. Ein Einstiegsprozessor mit möglichst hohem Takt ist dann die beste Wahl. Das gesparte Geld kann man in eine SSD stecken - eine kleine mit 128 GByte reicht meistens aus, wenn man eine Festplatte noch zusätzlich hat (dann muss man eventuell einige Programme eben auf der Festplatte installieren, der Pfad ist ja bei der Installation leicht auswählbar). Die 70 Euro die das heute kosten sind meist auch der Preisunterschied ziwschen einem Einstiegs- und Mittelklasseprozessor.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99