Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 380: 16.4.2014 - 5.5.2014

16.4.2014: Warum die Vektorrechner ausstarben - die Entstehung einer Architektur

Ich habe letzte Woche einen Artikel über die Cray 2 fertigstellt. Ich will noch vor meinem Arbeitsurlaub einen Artikel über die Cray 3 schreiben, doch wenn man über die Artikeln sitzt, dann fragt man sich willkürlich, warum es heute keine Vektorrechner mehr gibt.

Fangen wir mal mit etwas Geschichte an. Wenn man von Vektorrechnern spricht, dann meisten auch von der Firma Cray Research und Seymour Cray, der Gründer der Firma. Seymour Cray. Er ist eng mit der Entwicklung der Supercomputern verbunden. Als ich mich erstmals für Computer interessierte, war ein geflügeltes Wort "Ein Supercomputer ist eine Cray". Seymour Cray war zuerst bei CDC angestellt, wo er auch schon die schnellsten Rechner der damaligen Zeit, die Cyber 6600 und 7600 entwarf. Die CDC 6600 setzte erstmals um die Geschwindigkeit zu erhöhen mehrere Funktionseinheiten ein. Anstatt einer Recheneinheit gab es mehrere. Wenn nun eine Addition mehrere Takte erforderte, musste die nächste Rechenoperation nicht warten, sondern konnte in einem anderen Rechenwerk ausgeführt werden. Die Cyber 7600 war eine evolutionäre Weiterentwicklung der 6600. Geschwindigkeit gewann sie vor allem dadurch, dass sie nicht mehr als einzelnen Transistoren, sondern integrierten Schaltungen aufgebaut war. Bei der 8600 kam man bei der Entwicklung nicht weiter vorwärts und CDC gab die Entwicklung auf. Seymour Cray schied aus dem Unternehmen aus und gründete 1972 sein eigenes Unternehmen, Cray Research.

Die Entwicklung eines Nachfolgemodells war schwieriger. Seymour Cray hatte den Ansporn, dass jeder neue Rechner eine Potenz (10-mal) schneller als das Vorgängermodell sein sollte. Der Takt war nicht in dem Maße zu steigern wie Seymour Cray dies wollte. Die Cyber 7600 hatte einen Takt von 36,4 MHz, sein erster unter Cray Research gebauter Rechner die Cray 1 hatte einen Takt von 80 MHz, war also nur doppelt so hoch getaktet. Ihre Spitzenleistung bei Fleißkommaoperationen war dagegen 16-mal größer. Dies geschah durch die Einführung der Vektorarchitektur. Das Prinzip ist ganz simpel: Eine Befehlsausführung besteht aus den Schritten:

Die Idee war es nun, hier Taktzyklen einzusparen. En Vektorrechner führt eine Rechenoperation nicht mit zwei Zahlen aus, sondern nacheinander mit bis zu 64 Zahlenpaaren. Das Dekodieren musste nur einmal erfolgen. Die Daten mussten vorher schon in den Registern liegen und so blieb nur die Ausführung für den zweiten Befehl übrig. Eine Rechenoperation dauerte bei der Cray 1 sechs Takte für die erste, doch alle folgenden Operationen wurden in einem Takt durchgeführt. Dieser Geschwindigkeitsvorteil war das revolutionäre bei der Cray 1. Es gab auch einen Nachteil: der Rechner war nun nicht mehr universell. Seine hohe Geschwindigkeit erreichte er nur mit Software, die das Vektorprinzip ausnutzte. War dies nicht der Fall, also bei normalen Fließkomma oder Ganzzahlberechnungen, so fiel die Cray 1 auf ein Sechstel ihrer Geschwindigkeit zurück (war dann aber immer noch 2,6-mal schneller als eine Cyber 7600). Die Kunden damals waren aber vor allem das Militär sowie große Forschungseinrichtungen wie das NCAR (National Climate and Athmosphre Research Center), bei denen Simulationen liefen. Charakteristisch für die meisten Simulationen ist, aber das man immer dieselbe Berechnung mit unterschiedlichen Daten durchführt.

Aufgrund dessen, dass man die Architektur praktisch an verwendete die Software anpasste wurden die Rechner sofort zum Erfolg und riefen auch Nachahmer auf die Szene. In Japan bauten gleich drei Firmen Vektorrechner. NEC ist dem Prinzip bis heute treu geblieben und baute auch den letzten Vektorrechner den Earth Simulator, der von 2002 bis 2004 wieder die Spitze der Top 500, der schnellsten Rechner erklimmen konnte. Gerechterweise muss man sagen, das Seymour Cray das Vektorprinzip nicht erfunden hat. CDC brauchte schon vorher die Star 100 heraus, die das Prinzip einsetzte, allerdings konnte die Star 100 ihre Höchstgeschwindigkeit von 100 MFlops (nominell mehr als die Cray 1) nicht in realen Programmen umsetzen, weil die Maschine die Operationen vom Speicher und in den Speicher durchführte. Bis die Pipeline mit Daten gefüllt war verging so viel Zeit, dass eine hohe Geschwindigkeit nur bei der Verarbeitung von sehr vielen Zahlen erreicht wurde. Seymour Crays Verdienst war es Vektorregister einzuführen, also eigene Register in der CPU. Da diese besonders schnell sein mussten konnte er keine hoch integrierten Chips nehmen. Ein Chip konnte nur eine Zahl speichern. Bei acht Registern mit je 64 Zahlen waren so alleine 512 Chips für die Vektorregister nötig. Clevere Programmierer machten übrigens Gebrauch davon, dass die Maschine mehrere Recheneinheiten hatte. Während ein Rechenwerk eine Addition durchführte, konnte eine zweite eine Multiplikation durchführen. so konnte man die Spitzenperformannce von 80 auf 160 GFlops steigern.

Die weitere Entwicklung der Vektorrechner ist dagegen sehr schnell zu skizzieren. Die Cray 2 entstand als Nachfolgemodell 1985. Cray gelang es die Zykluszeit auf ein Drittel zu reduzieren, aber zu einem hohen Preis. war die Cray 1 schon kompakt, so musste die Cray 2 noch kleiner sein eine 1 m lange Leitung bewirkt schon eine Verzögerung des Signals um 2 ns - viel bei einer Zykluszeit der Cray 2 von 4,1 ns. Der ganze Rechner wurde in eine inerte Kühlflüssigkeit getaucht, um die rund 180 kW Wärmeleistung abzuführen, die er auf einer Fläche von 1,49 m² emittierte. Die Cray 2 konnte nicht an den kommerziellen Erfolg anknüpfen, sie entstand aufgrund der Anforderung des amerikanischen Energieministeriums für umfangreiche Simulationen und hatte einen Hauptspeicher, der so groß war, dass er erst nach zahn Jahren von einem anderen Rechner übertroffen wurde. Dieser war nicht in der gleichen Technologie wie die CPU zu realisieren, doch normale Standard-DRAM Bausteine waren rund dreißigmal langsamer als die Logik. Um dies auszugleichen griff er nacheinander auf verschiedene Speicherbänke zu und hatte daher auch 64 Stück dieser. Ein kleiner lokaler Speicher sollte zudem die wichtigsten Daten für die Berechnungen halten. Anders als der Cache den heutige CPU einsetzen wurde dieser aber per Programm gefüllt.

Da sich die Fertigstellung der Cray 2 verzögerte, baute Stephen Chen basierend auf der Cray 1 die Cray X-MP, im wesentlichen nichts anderes als ein Zwei/Vierprozessorausgabe der Cray 1. Sie verkaufte sich rund sechsmal besser als die Cray 2. Als dann Seymour Cray bei der Cray 3 auf Galliumarsenid wechselte, machte das Management nicht mit. Cray Research baute in der Folge weitere Rechner, die auf der Architektur der Cray 1 basierten, mehr Geschwindigkeit erreichte man durch die evolutionäre Verringerung der Schaltzeiten, vor allem aber durch erst zwei, dann vier, acht und 16 Prozessoren. Seymour Cray machte seine eigene Firma auf. Die Cray Computer Corporation. Er konnte die Cray 3 noch fertigstellen, doch das Ende des kalten Kriegs bedeutete einen drastischen Rückgang der Aufträge für Supercomputer für alle Firmen. die Cray 3 hatte nur einen Kunden und der zahlte nicht. Noch während der Entwicklung zur Cray 4 ging seine neue Firma Cray Computer Corporation bankrott.

Dagegen nahmen ab Mitte der neunziger Jahre Multiprozessorsysteme zu. Es gab diese schon vorher. Schon in den Achtzigern gab es Versuche Supercomputer auf Basis von kommerziellen Mikroprozessoren (8086, MC 68000) oder speziell konstruierten Mikroprozessoren wie die Connection Maschine (CM-1 und CM-2). Doch sie waren damals noch eine Nischenlösung. Schwer zu programmieren, weil der lokale Speicher klein war und viel der Leistung ging durch Kommunikation verloren. Mitte der neunziger kamen Mikroprozessoren auf den Markt der Takt einige Hundert Megahertz erreichte. Sie konnten 4 Gigabyte Speicher ansprechen und um einen Vektorprozessor zu ersetzen brauchte man von diesen nun nicht mehr Tausende sondern vielleicht ein Dutzend. Durch deren Massenfertigung und die Benutzung von Standardtechnologie waren damit aber Rechner billiger zu fertigen und setzten sich schnell durch. Im Juni 1993 führte die erste Top 500 Liste 310 Vektorrechner auf. im November 1997 waren es nur noch 107. Innerhalb von etwas über vier Jahren eine Reduktion auf ein Viertel. Cray Research selbst führte den ersten Rechner mit MPP (Massive Parallel Prozessors) 1993 ein, 1995 erschien der letzte Vektorprozessor T90.

So nach dieser Einleitung lest ihr morgen, welche technische Gründe es gab, warum die MPP über die Vektorrechner triumphierten.

16.4.2014: Warum die Vektorrechner ausstarben - Gründe für den Niedergang

Die Gründe für den Niedergang sind relativ offensichtlich. Einer lag in dem Aufbau der Hardware, Seymour Cray verwandte für die Cray Chips in ECL-Technologie für den Speicher und die Logik. ECL (Emittergekoppelte Logik) waren die schnellsten verfügbaren Schaltungen, die es gab. Sie haben aber zwei Nachteile. Zum einen haben sie eine sehr hohe Verlustleistung, die auch anliegt, wenn nicht geschaltet wird (bei einem Computer sind ja niemals alle Schaltungen gleichzeitig aktiv, am extremsten ist dies beim Speicher, bei dem nur die Bausteine aktiv sind, von denen gerade Daten geholt oder gespeichert werden, dass sind bei einem Supercomputer einige Dutzend von rund 70.000 Chips. Zum zweiten eignet sich ECL nicht für eine hohe Integrationsdichte, eben aufgrund der hohen Verlustleistung. Schon als die Cray 1 entwarfen wurde hinken ECL-RAMs um eine bis zwei Generationen bei der Speicherdichte dem Metalloxidhalbleitern (MOS) hinterher, aus der "normale" Mikroprozessoren und Speicherbausteine entstanden. Dabei waren sie durch kleinere Stückzahlen teurer und die Chips für die Logik waren noch teurer, denn sie wurden im Auftrag gefertigt.

Das wäre kein Problem gewesen, denn für einen Supercomputer konnte man zweistellige Millionenbeträge verlangen. Doch die Geschwindigkeit der ECL-Logik konnte kaum noch gesteigert werden. Sie betrug 1976 bei der Cray 1 12,5 ns und erreichte bei dem letzten Vektorrechner von Cray 2,2 ns. Das war die T90 die 1993 erschien. Der Takt wurde um den Faktor 6 gesteigert werden, aber bei Mikroprozessoren war es so, dass die schnellsten Exemplare 1976 rund 3 MHz Takt hatten und 1993 waren es 150 MHz, also der Faktor 50. Mikroprozessoren holten rapide bei den Taktfrequenzen auf. Durch die höhere Integrationsdichte gab es nun auch 64-Bit Prozessoren, während es 1976 noch 16-Bit Prozessoren waren. Sie konnten nun auf genügend Speicher zugreifen und durch die höhere Verarbeitungsbreite auch die Fließkommazahlen schnell verarbeiten. Kurzum: Mikroprozessoren hatten nun den Takt der Vektorrechner erreicht und durch die hohe Integrationsdichte konnte man nun auch die benötigten Gatter auf einen Chip packen um einen Vektorprozessor zu ersetzen.

Die ECL-Technologie hatte noch einen Nachteil: die CPU war nicht auf einem Chip untergebracht, auch nicht auf einem Bord, sondern auf mehreren Säulen, eben aufgrund der niedrigen Integrationsdichte. Bei 2,2 ns Takt einer Cray T90 spielen dann aber schon die Signallaufzeiten innerhalb eines Computers eine rolle. In 2,2 ns legt ein Signal in einem Kabel gerade mal 50 cm zurück. Wenig, wenn der ganze Computer im Takt arbeiten soll. Die Computer mussten kleiner werden, sodass die Wärmeabgabe und Kühlung noch schwieriger wurde. Die Cray hatte eine Standfläche von 1,50 m² und emittierte 180 kW, hätte man die Fläche mit Kochfeldern belegt, sie hätten bei voller Leistung nur die Hälfte der Wärme abgegeben. Der ganze Rechner musste in eine inerte Flüssigkeit zur Kühlung gepackt werden. Kleiner ging es nun nicht mehr.

Auch der Speicher machte Probleme. Die Hersteller von Supercomputerm wechselten wegen des rapiden Fortschritts bei MOS Speicher zumindest beim Speicher in den Achtzigern auf schnelle statische RAMs, manchmal auch auf die höher integrierten, aber noch langsameren DRAM. Das Problem bei diesem langsamen Speicher war, dass man nun die langsame Zugriffszeit mit einer hohen Bandbreite kompensieren musste. Wenn der Rechner eine Zykluszeit von 5 ns hatte und das RAM eine von 150 ns, dann durfte er eben nur alle 30 Zyklen auf dieselben Chips zugreifen. Es gab sehr viele Bänke auf die nacheinander zugegriffen wurde (256 bis 1024), jede musste einzeln verdrahtet werden und so erhielt man zwar eine beeindruckende Bandbreite, aber handelte sich Probleme beim Verdrahten ein. Zudem klappte das nur bei linearem Zugriff.

Das letzte Problem war hausgemacht. Die Architektur wurde kaum geändert. Die letzte Cray die als Vektorrechner aufgebaut wurde hatte wie die erste acht Vektorregister mit 64 Einträgen. Die höhere Integration schlug sich also nicht in mehr Registern nieder oder mehr Recheneinheiten - beides hätte mehr Parallelität erlaubt. Caches, wie sie Mikroprozessoren einsetzten wurden selten eingesetzt. Mit ihnen kann man die Langsamkeit des Speichers kompensieren, indem man die Daten die man aktuell braucht, in einen kleinen, aber schnellen Speicher kopiert. stattdessen setzte man nach wie vor auf einen großen gemeinsamen Speicher der direkt angesprochen werden konnte.

Auch entwickelte man die skalaren und normalen Fließkommeinheiten kaum weiter. Damit blieb das Problem dass man die hohe Geschwindigkeit nur mit die Vektorregister nutzende Software erreichte. dagegen waren Mikroprozessoren ohne Vektorprozesoren fähig diese normalen Berechnungen genauso schnell zu erledigen. Sie waren nicht so spezialisiert.

Kombinierte man dies mit dem Kostenvorteil - es mussten keine eigenen Chips entwickelt werden, man konnte auch bei den Fertigungskosten durch die hohen Stückzahlen sparen, so ist klar, dass MPP siegen würde. Heute ist nur NEC dem Vektorprinzip treu geblieben. Immerhin hat NEC aus einem Vektorprozessor 256 GFlops herausgekitzelt. Ein CPU Kern einer XEON CPU schafft bei bestimmten Operationen maximal 14 GFlops. (2014).

Das man den Takt nicht weiter reduzieren konnte, holte übrigens zehn Jahre später die Mikroprozessoren ein. Nachdem der Pentium 4 die 3 GHz Grenze erreichte, wurde sie kaum noch gesteigert. Auch hier setzte man nun auf immer mehr Kerne. So richtig hat die Vektorarchitektur nicht in die Mikrocomputer eingezogen. Es gab zwar Ansätze wie SIMD (Single Instruktion, Multiple Data) oder VLIW (Very long Instruktion Word) die beide den Ansatz haben, mehrere Daten in einer Instruktion zu verarbeiten, doch dann sind es 4 oder 8 Datenworte, nicht 64 wie bei einem Vektorrechner, obwohl dies sicher eine Möglichkeit wäre, die Effizienz zu steigern. Am ehesten vergleichbar ist die Architektur von Grafikkarten. Sie sind zwar völlig anders aufgebaut, haben aber einige Gemeinsamkeiten:

Cray Research gibt es heute noch, eine Zeitlang war die Firma Bestandteil von Silicon Graphics, wurde später aber wieder ausgegliedert. Die Firma baut bis heute Supercomputer. Das Know-How liegt aber nicht in den Prozessoren - es werden AMD Opterons oder Intel Xeons verwendet, sondern in der Technologie diese und den Hauptspeicher zu verbinden, dass der Zugriff möglichst schnell geht. Auch die japanischen Firmen, die zwar nicht den internationalen Erfolg von Cray hatten, aber zeitweise die schnellsten Rechner bauten gab auf, bis auf NEC, die bis heute Vektorrechner anbietet.

22.4.2014: SpaceX auf dem Weg zu ULA 2.0

Unabhängig vom CRS-3 Start will ich heute mal wieder SpaceX widmen, auch weil der Beitrag schon am Gründonnerstag entsteht. Am Montag gab es eine feierliche Zeremonie bei der die NASA PAD 39A an SpaceX vermietet, sogar NASA Administrator Boulden war da. Gwen Shotwell versprach "We'll make great use of this pad, I promise," Nun soll auch die Falcon Heaven hier zum Jungfernflug starten. Das soll eine Entscheidung sein, die erst in den  letzten Monaten gefallen ist "Until yesterday, we didn't actually have pad 39A," said Emily Shanklin, a SpaceX spokesperson, in an email response to questions. "Once the lease was signed, it became the option that made the most sense.". Das zeigt mal wieder die SpaceX Desinformationspolitik, hat es doch in dem vergangenen Jahren immer geheißen, dass man Vandenberg für die Falcon Heavy baut und sie zuerst mal nicht vom Cape aus starten könnte weil die Umbauten das LC 40 zu lange blockieren würden. Nun sollen aber an Pad 39A nur geringe Modifikationen nötig sein. Wesentlich mehr dürfte die Errichtung eines neuen Hangars für die Horizontalintegration erfordern.

Für mich ist das ein erneutes Indiz, dass es der Firma vor allem um Regierungsaufträge ankommt. Sie pusht in dieser Hinsicht viel. Musk preist seine Raketen wie Sauerbier vor Kongressanhörungen, ruft seine Jünger auf dieselben Abgeordneten mit Mails zu bombardieren und die Fima veröffentlicht zwar keine Daten über ihre Raketen aber ein Paper das ausrechnet, was der Steuerzahler mit SpaceX sparen könnte. Dazu wird vermeldet gibt die Geschäftsleitung enorme Summen für Lobbyismus aus. Weitausmehr als ihre Konkurrenz.

Nehmen wir einfach mal die Fakten: Was SpaceX selbst zugibt, ist ein Grund für die Miete des Pads, dass das Militär für ihre Nutzlasten eine vertikale Integration verlangt. Die Falcon 9 wird aber wie die Sojus und die anderen russischen Träger horizontal integriert. Das Pad soll um einen Zugang erweitert werden. Mit dem existierenden Pad ist dies nicht möglich, da gibt es nur einen kleinen Nabelschnurmast. Trotzdem baut die Firma einen neuen Hangar nur für Pad 39A, wo die Rakete horizontal integriert wird und die Nutzlastspitze folgt dann am Pad. an sollte meinen es wäre doch möglich die schon existierenden Anlagen zu nutzen die man für das Pad 40 hat.

Wofür diese Investitionen, und das Versprechen das mann "great use" von der Anlage machen will? Das Launchmanifest gibt das nicht her, dort sind nur drei Starts der Falcon Heavy bis 2017 verzeichnet, der Jungfernflug ohne Kunden, eine Demomission der USAF ohne wichtige Nutzlast die vielmehr eine eihe von Manövern erproben soll und als einziger kommerzieller Start der eines Intelsats. Das bisherige Launchmanifest könnte die Firma locker mit einem Pad abwickeln. Ariane 4 startete bis zu 12 mal pro Jahr und dort wurde vertikal integriert (dauert meistens länger) und die Nutzlastspitze wurde erst am Pad montiert, (blockiert das). SpaceX wird die ganze Rakete mit Spitze fertig stellen bevor sie zum Pad kommt. Die Sojus mit rein horizontaler Integration und bis zu 60 Starts pro Jahr zeigt wie oft man dann starten kann.

Kommerzielle Kunden werden warten bis es genügend Starts gibt und wenn dann fehlt die Doppelstartfähigkeit. Es gibt keinerlei Auskunft über eine Struktur wie die Sylda-5 welche den unteren Satelliten umhüllt und schützt. Bei der kurzen Nutzlastverkleidung wäre die auch schwer umzubringen. Arianespace will die ja schon um 50% längere Verkleidung nochmals verlängern weil dei Satelliten größer werden. Bleibt das Stacking, was ILS seit Jahren anbietet aber bisher nur ein oder zweimal einsetzen konnte, denn die meisten Kunden wollen nicht ihren Satelliten auf einen anderen aufgeschraubt sehen. So wird es wohl Einzelstarts geben und dann ist es mit dem günstigen Preis vorbei. 130 Millionen Dollar (Falcon heavy) sind normal für einen Einzelstart. Eine Proton kostete 2011 rund 105 Millionen im Einzelstart.

De Fakto macht das Pad und die Investitionen nur Sinn, wenn man ins Regierungsgeschäft einsteigen will. Die Aufträge sind dort sicher und müssen nicht akquiriert werden. Die Verdienstspanne ist noch höher, denn kommerzielle Missionen konnte Lockheed Martin bisher nur wenige gewinnen. Jetzt hat die Firma eine kostenlose Versicherung angeboten um die Rakete preislich attraktiver zu machen. Boeing versucht es gar nicht erst mit der Delta. Es sind ja nicht nur die höheren Startpreise sondern das DoD zahlt beiden Firmen zusammen jedes Jahr 1 Milliarde nur dafür, dass sie nicht Fachleute entlassen und gerade nicht benötigte Fabriken einmotten. Wenn man da dabei ist hat man einen stabilen Kapitalfluss. Dazu kommt das das Militär und die NASA gewohnt sind Priorität zu haben. Wenn ein Statt von ihnen ansteht, dann zu einem bestimmten Termin und wenn sich der verschiebt dann müssen eben alle anderen Kunden warten - vielleicht auch ein Grund warum SpaceX seit Januar nichts startete. Das ist mit einem eigenen Pad besser möglich. Nur für kommerzielle Missionen lohnt es sich nicht so viel Geld in Infrastruktur auszugeben, zumal die Firma ja schon zwei Startplätze hat.

Nur erst mal hat man nur Kosten. Auf politischen Druck hin vergab die USAF 14 Starts für "Neulinge", zum Vergleich: 36 wurden zeitgleich bei ULA als Block-Buy gekauft, obwohl das ergebnisoffen formuliert ist, dürfte wegen der Größe der Nutzlast nur SpaceX infrage kommen. Doch wegen Verzögerungen beim Bau der GPS III Satelliten, die wohl eine Nutzlast sind hat man es auf 7 Starts zusammengestrichen. Nimmt man an, dass es sich um den gleichen Zeitraum wie bei ULA handelt, dann sind das vier Jahre, also nicht mal zwei Starts pro Jahr. Erst danach wird man beim DoD über neue Starts entscheiden. Das bedeutet bis 2018 wird es maximal einige zusätzliche Aufträge geben, außer die USAF revidiert ihre Orders.

So gesehen spricht viel dafür dass die Firma sehr bald das gleiche Schicksal aller US-LSP teilen wird. Sie zogen sich vom kommerziellen Markt zurück und bauen auf die US-Gesetzgebung die Starts nur an US-Firmen vergibt, egal was sie kosten. Das ist sicher, das ist einträglich. Kommerzielle Starts sind das nicht. Man muss sie gegenüber Wettbewerbern gewinnen. Wenn man einen Fehlstart hat sinkt die Auftragszahl wie man in den letzten Jahren bei der Proton sah. Die nur zweistufige Auslegung der Falcon 9 bedeutet auch, dass in den Orbit noch die relativ schwere zweite Stufe gelangt und so sinkt die Nutzlast bei höheren Geschwindigkeiten ab und sie erreicht nur noch 3,5 t in den GTO. Eine Zahl, die ich schon vor der Bestätigung errechnet habe. SpaceX bemüht sich aber nicht um einen Startplatz in Äquatornähe, wenn man nochmals einen weiteren vierten Startplatz haben will, dann in Texas, sonst könnte man ja die US-Regierung vergrätzen.

Entwarnung für Europa, die ja gerade SpaceX als Grund anführen, eine neue Rakete zu entwickeln? Nein, eher wird es noch kritischer. Wenn SpaceX die hälfte der US-Aufträge und Subventionen erhält, dann sind das 550 Millionen Dollar Fixzahlungen pro Jahr und  40% höhere Startpreise als Arianespace heute verlangen kann. Wenn es vier Starts pro Jahr sind, dann sind das zusätzliche Einnahmen von rund 800 Millionen Dollar pro Jahr, die kommerzielle Mitbewerber nicht haben. Damit kann man Kampfpreise gut quersubventionieren.

Es könnte noch einen weiteren Grund für die Wahl von Pad 39A geben. Denn es gibt ja noch das CCDev Programm. Da könnte es wenn die NASA mal sich auf eine Firma festlegen soll eine Rolle spielen, ob die Firma auch ei Infrastruktur zum Starten hat. Nicht umsonst plädierten die Mitbewerber dafür das Pad 39A nicht an eine Firma zu vergeben, sondern an mehrere - für wenige bemannte Starts zumindest organisatorisch eine sinnvolle Entscheidung, ob es technisch möglich gewesen wäre zwei verschiedene Raketen (Atlas V und Falcon 9/Heavy) vorzubereiten? - ich habe da meine Zweifel.

23.4.2014: Wie mache ich dem Speicher Beine?

Ich habe mich als ich an dem Aufsatz über die Cray 3 saß, bekam ich immer mehr Infos über die früheren Rechner von Seymour Cray und machte mich an die Cyber 6600 und die hatte schon in den frühen sechziger Jahre ein Problem: Die Logik war schneller als der Speicher. Zeit das vielleicht mal als Thema im Blog aufzugreifen.

Ich glaube das Problem existierte fast von Anfang des Computers. Die ersten Rechner verwandten die gleichen Bauteile für Speicher und CPU, so die Rechner von Zuse oder die ersten Röhrenrechner wie die ENIAC. Doch bald kam man drauf für den Speicher Elemente zu nehmen, die billiger als die Logik waren. Das lag auf der Hand, denn egal wie komplex eine CPU ist, sie braucht immer weniger Elemente als der Speicher. Eine 8-Bit CPU hatte zwischen 4500 und 6500 Transistoren, für den Speicher von 64 KByte hätte man 524.000 Elemente gebraucht die als Flip-Flop Speicherelement rund 2 Millionen Transistoren erfordert hätten. Bei einer 16 Bit CPU waren es zwischen 29.000 und 134.000 Transistoren, für den Speicher hätte man 32 bis 512 Millionen Transistoren gebraucht.

So wich man aus auf Elemente oder Technologien aus, die billiger waren. Zuerst waren es Eisenringe, die man zwar manuell auffädeln musste, aber in der Herstellung waren sie erheblich billiger als die Transistoren aus Germanium. als integrierte Schaltungen aufkamen erfand man bald das DRAM, das anders als das SRAM für jedes Bit nur einen Transistor (anstatt 4-6 je nach Geschwindigkeit) brauchte. Allerdings sind DRAM Speicher relativ langsam, weil das "Bit" in einem Kondensator steckt und auch das Ansprechen einer Zeile einige Zeit braucht. Die Diskrepanz wurde im Laufe der Zeit immer größer. Die CPU der Cyber 6600 war zehnmal schneller als der Speicher, heute ist es der Faktor 30.

Wie sorgt man dafür, dass die CPU nicht 90% der Zeit warten muss?

Das erste was man einführte war der Prefetch. Anstatt jeden Befehl einzeln zu holen, dann auszuführen, holte die CPU schon die die Bytes die auf den nächsten Adressen folgten. Da zum größten Teil die Befehle linear abgearbeitet wurde konnte man so die Ausführung beschleunigen, da man die Ausführungszeit der Befehle für das Holen der nächsten Bytes nutzen konnte. Prefetch wurde sehr früh eingeführt, beschleunigte aber nur die Ausführung der Befehle, nicht die der Daten die verarbeitet wurden. Das wurde für zahlreiche Rechner zum Bottleneck. Prominente Beispiele waren die STAR 100, der erste Vektorrechner bei dem man den Fehler machte, die Rechenoperationen vom Speicher zum Speicher auszulegen. Auch die Cray 1 war in dieser Hinsicht schlecht ausgelegt. Nur wenn die Daten in Registern standen, war sie schnell. Beim Zugriff auf den Speicher sank die Leistung auf ein Siebtel ab und wenn es keine Vektoroperationen möglich waren, sondern Skalarberechnungen, dann sank die Leistung von maximal 130 auf 4-5 MFlops ab.

Der nächste Schritt war es, den Speicher in Bänken anzuordnen und auf diese nacheinander zuzugreifen. Die beschleunigende Wirkung erklärt sich durch die Arbeitsweise von Speicherbausteinen. Wenn eine CPU Daten haben wollte, legte sie zuerst die Adresse an die Speicherchips an und signalisierte auf einer Leitung, dass sie auf Daten wartete. Der Speicherbaustein übersetzte die Adresse in interne Zeilen- und Spaltenadressen, öffnete den Zugang der Speicherzelle am Kreuzungspunkt der Spalten-/Zeilenadressen zu den Datenleitungen, die Ladung setzte diese unter Spannung und der Baustein setzte eine Leitung unter Spannung die signalisierte, dass die Daten bereit zum Abholen waren. Nun konnte die CPU die Datenleitung abfragen und sie setzte zum Schluss eine Signalleitung zurück, die dem Baustein signalisierte, das die Aktion abgeschlossen ist. Spricht man nun mehrere Bausteine nacheinander an, weil man damit rechnet, die nächsten Bytes gleich zu benötigen (siehe Prefetch), so kann die CPU nacheinander von allen die Daten holen, weil sie im entscheidenden Schritt, dem Daten abholen, warten.

Die Technik nennt man Bankinterleaving.. Es gibt sie auch beim PC, dort spricht man von Speicherkanälen. Wenn man sich das Motherboard anschaut, so hat es mindestens zwei Slots, manchmal auch 4,6 oder 8. Typischerweise bilden zwei Steckplätze eine Bank, das bedeutet wenn man vier Module in den Rechner packt, so müsste er schneller sein als mit zwei. Aufgrund anderer Techniken ist der Vorsprung heute aber im einstelligen Prozentbereich. Das einsetzen von Banks ist sehr verbreitet, genauso wie bei Prefetch gibt es aber Probleme, wenn die Ausführung nicht linear ist, das bedeutet der Code verzweigt (Sprünge, Unterprogramme aufgerufen werden) oder die Daten wechseln (neue lokale Variablen in Unterprogrammen), dann nützt das vorausschauende Lesen der Daten aus der Speicherbank nichts, denn diese werden nicht mehr gebraucht. Ganz fatal ist das beim Code, weil das dann auch den Prefetch und die Pipeline betrifft, die Befehle vorrausschauend holen und Dekodieren. Es gibt auch hier einige prominente Beispiele wo dieser Effekt zuschlug. Beim Pentium Pro war es so, dass bei 16-Bit Zugriffen der Mechanismus nicht griff und der damals sehr teure Prozessor langsamer als ein niedrig getakteter preiswerter Pentium war und beim Pentium 4 gab es auch einen ziemlichen Performanceeinbruch wenn der Code nicht linear war oder Daten nicht im Cache. Ein prominenter Supercomputer der darunter litt war die Cray 2. Man setzte dort Logikchips mit 4,1 ns Zykluszeit ein und Speicherchips mit 160 ns. So waren die Speicherchips in nicht weniger als 64 Bänken angeordnet. ging es linear zu, so wurde eine Bank erst nach 262 ns wieder angesprochen - lange genug bei selbst der langsamen Zugriffszeit. Doch meist war das nicht gegeben und in der Realität erreichte die Cray nur die Hälfte ihrer nominellen Spitzenleistung von 1942 MFlops.

Der Cache ist die letzte Neuerung. Der Gedanke ist der dass man einen lokalen Speicher hat, der schnell genug für die CPU ist. Er ist in einzelne Bereiche, Cachelines unterteilt. Für jede Cacheline wird gemerkt welche Adressen des Speichers sie enthält und wann der letzte Zugriff erfolgte, wenn die aktuell benötigten Daten nicht im Cache waren, dann wurde die älteste Cacheline mit neuen Daten überschrieben (das dauerte nun so lange wie ein normaler speicherzugriff), danach kommen sie aus dem Cache. Dieser muss nun so schnell wie möglich sein. Er befindet sich auch meistens im Prozessor selbst um die Wege kurz zu lassen. Da derartiger Speicher sehr teuer ist, haben heutige Prozessoren meistens gestufte Caches, einen kleinen Level 1 Cache mit hoher Geschwindigkeit, ein größerer Level 2 Cache der etwas langsamer ist und einige Prozessoren wie der Power 5 von IBM haben auch einen Level 3 Cache, der ist dann auch meist außerhalb des Prozessors in einem eigenen Baustein unteegrbracht beim L1 und L2 Cache ist das wegen der Signallautweiten nicht möglich (bei 3 GHz legen Signale maximal 7 cm zurück bis der nächste Takt beginnt). Caches haben einen Vorteil gegenüber den bisherigen Lösungen, die nur einen Speicherbereich schnell machen, aber beim Zugriff auf einen anderen versagen. Dadurch dass der Cache mehrere Bereiche hat, kann er bei Sprüngen und Verzeigungen von verschiedenen Stellen deren Code vorrätig halten, ebenso wie die benötigten Variablen. vorrätig halten. Da Code üblicherweise nicht laufend neue Daten anfasst und auch immer wieder dieselben Routinen nutzt war der Cache die wichtigste Möglichkeit dem Speicher Beine zu machen. Bei den alten Prozessoren konnte man ihn noch im BIOS abschalten und plötzlich war der Rechner nur noch so schnell wie ein IVM AT und die alten DOS spiele liefen wieder ....

Der SDARM Speicher führte im PC Bereich den Burstmodus ein. Die Geschwindigkeitssteigerung liegt darin, dass man die obige aufwendige Kommunikation zwischen Prozessor und Speicher abkürzte. Nach dem ersten Übertragenen Wort liegt das nächste beim nächsten Takt an den Ausgängen ohne das es quittiert wird. Das geht, weil der Chip intern die nächsten Daten lädt und an die Datenleitungen geht. Allerdings ist der Speicher nun nicht mehr universell einsetzbar. Er und der Prozessor müssen mit dem gleichen Takt betrieben werden, da der Speicher nicht mehr darauf wartet dass der Prozessor die Abnahme der Daten quittiert. DDR Speicher ist SDRAM, der zweimal pro Taktzyklus (bei jedem Flankenwechsel) Daten an die Ausgänge stellt.

Bei den Großrechnern üblich, bei Prozessoren nur in kleinem Maße eingesetzt ist das letzte Konzept: Bandbreite. Wenn der Speicher langsam ist und man aus verschiedenen Gründen keine Caches einsetzen kann (bei Großrechnern z. B. wegen der langen Signallaufzeit zwischen den Modulen) dann kompensiert man durch Bandbreite. Wenn man eine 32 Bit Architektur hat, dann lädt man 256 Bit auf einmal, dann hat man die nächsten 16 Worte vorrätig. Im PC Bereich ist vor allem der Cache mit einer hohen Bandbreite angebunden, der Pentium hatte auch einen 64 Bit Datenbus bei einer 32 Bit Architektur. Verbreiteter ist das Konzept bei Grafikkarten, hier bringen Caches wenig, weil hunderte von Recheneinheiten dauernd neue Daten anfordern und im Prinzip auf den ganzen Speicher mehrmals pro Sekunde zugegriffen wird. Hier wird Geschwindigkeit erreicht durch einen Datenbus von 128 bis 512 Bit Breite der dann bei einem Taktzyklus (und der liegt weit unter dem von CPU's) gleich mal 16 bis 64 Bytes auf einmal transferiert.

Architekturen können sich auch an den Umstand anpassen, das geschah mit Befehlen wie SIMD (Single Instruction multiple Data), bei denen mehrere Daten mit einem Befehl kombiniert werden. Es entfallen dann die Zugriffe auf den Speicher, da die Daten schon am Code hängen oder CLIW (Very Long Instruction Word, bei dem mehrere Befehle zu einem großen Block kombiniert werden - auch hier kann man dieen Block auf einmal holen anstatt mehrmals auf den Speiche zuzugreifen.

24.4.2014: 20 Jahre Kalkofes Mattscheibe ...

Das feiert Tele5 in diesen Tagen. Ich gestehe: ich bin Fan von Kalkofe, genauso wie ich alles anschaue was satirisch ist (Heute Show, Extra 3, Walulis sieht fern). Leider konnte ich das meiste von ihm nicht ansehen. Premiere hat sich unsere Familie nicht geleistet. Als er bei Pro 7 war habe ich alles angeschaut. Nun bei Tele5 ist er bei einem Sender der nicht auf meinem Zappprogramm steht. Das ist auch gerade die Crux: unser Fernsehen ist nicht nur so schlecht, dass man sich zwanzig Jahre lang darüber lustig machen kann, sondern es ist auch so humorlos dass Kalkofe meistens im Spartenfernsehen lief. Bei Premiere war es einfach, er hat sich ja über fernsehen lustig gemacht und die haben damals nur Spielefilme und Ballgeschiebe gezeigt. Bei Tele 5 ist es auch kein Problem, die zeigen Filme die so alt sind dass die Rechte billig sind. Selbst produziertes Fernsehen gibt es dort wenig. Auch daher ist der Sender kein Ziel von Kalkofe. Daher dachte ich mir als er auf Pro Sieben lief: "die sind mutig2. Denn anders als Switch oder Walulis sieht fern, stellt er ja nichts nach, sondern es kommen zuerst die Originalclips die schon grottenschlecht sind und dann die Persiflage. Es mag dann kein Zufall sein, dass Kalkofe wechseln musste als er auch Pro 7 Sendungen wie "The next Uri Geller" auf die Schippe nahm.

Immerhin: Tele 5 ist da noch mutig. Auch Walulis sieht fern kam ursprünglich bei Tele 5 und ist nun bei Eins Plus angekommen. Kalkofe konnte sicher noch zwanzig Jahre weiter machen, denn das Fernsehen wird immer schlechter. Ich finde Kalkofe hat sogar ein bisschen nachgelassen. Früher war er bissiger und er stützt sich immer mehr auf Spartenfernsehen, wie Shoppingkanäle oder Ähnliches. Fernsehen ist humorlos, zumindest wenn es um die eigenen Sendungen geht. Klar, über Politik oder Zustände darf man sich lustig machen, das beweisen Heute Show und Extra 3, aber nicht über das Fernsehen, zumindest nicht über die eigenen Sendungen. Mein Tipp: macht qualitativ gutes Fernsehen, dann braucht ihr Kalkofe nicht zu fürchten und könnt ihn auch ins Programm nehmen. Eigentlich brauchen wie mehr solche Sendungen die auf die Missstände aufmerksam machen. Es sind ja nicht einzelne lustige Ausrutscher die es gibt, wie Kader Loth die immer wieder durch ihre hochnäsige Art und den Gegensatz von erreichtem und Eigenbild für einen Kalkofe-Clip gut ist, es sind ganze Formate bei denen eine Sendung genauso mies ist wie die nächste. Und wenn Kalkofe einen Ausschnitt parodiert, dann weiß jeder das ist nur die Spitze des Eisbergs.

Ich kann noch verstehen dass beim Privatfernsehen solcher Schrott entsteht. Dort geht es um Profit und der ist maximal wenn die Werbeeinnahmen hoch und die Sendungen billig sind. Doch beim öffentlich-rechtlichen hört mein Verständnis auf. Das wird von meinen Gebühren finanziert und da kann ich was dafür erwarten. Wenn das nicht mit den Gebühren geht, dann spart ein: bei der Verwaltung, bei Senderechten für teure Ereignisse wie Ballgeschiebe oder im Kreisfahren oder überlegt mal wie viele öffentlich-rechtliche Sender ihr braucht. Lieber weniger mit gutem Programm als viele mit schlechtem.

5.5.2014: Den Speicher optimieren wie es mache

Im Gegensatz zu dem Gastartikel von Sophie Lennartz glaube ich nicht das man heute noch irgend etwas mit Eintragungen in der System.ini (seit Windows 3.1 Zeiten habe ich mit der nichts mehr gemacht) oder Registry (der moderne Ersatz ab Windows 95 für die System.ini) bewegen kann. Man kann sich so nur leicht den Computer kaputtkonfigurieren. Heute hat Windows zahlreiche Optimierungen eingebaut, die angeworfen werden je nach Situation. Sie können auch wenn sie nichts optimieren müssen abgeschaltet werden. so wird Windows das verschieben von Dateien auf der Festplatte abstellen, wenn man eine SSD im System hat. Das dient normalerweise dazu, die Programme zusammenhängend anzuordnen, die beim Windows Start regelmäßig aktiv sind.

MS ConfigWenn ich bei einem anderen Rechner was machen muss, dann tu ich eher ausmüllen als in der Registry herumzudocktern, das bringt in meinen Augen mehr. Müll sammelt sich durch Installationen an. Entweder ist er schon vorhanden, wenn man einen Rechner mit allerlei "Zugaben" kauft oder er kommt durch neu installierte Programme die Dinge mitinstallieren (die berüchtigten Toolbars) oder Autostartprogramme anlegen, auch wenn man das nicht will. Ich selbst benutze zum Ausmüllen Autoruns von den Microsoft Sysinternals, doch da das für Profis gedacht ist und man sich leicht damit auch lebenswichtige Dinge abschalten kann, beziehe ich mich in dem Artikel auf Msconfig das schon in Windows integriert ist.

Aber fangen wir zuerst mal beim kompletten Rausschmeißen von Programmen an. Regelmäßig sollte man den Menüpunkt "Programme und Funktionen" in der Systemsteuerung besuchen. Man sieht ihn meist schon wenn man "Pro" ins Suchfeld auf der Programmleiste eintippt. Dieser Teil enthält alle installierten Programme. Da kann man man regelmäßig prüfen ob man die noch alle braucht. Man kennt das - man hat mal eine Software ausprobiert, aber sie hat sich nicht als so toll erwiesen. Man benutzt es zwar nicht mehr, aber es ist noch installiert. Hier kann man es dann endgültig entfernen. Bei neu gekauften Rechnern sollte man diesem Teil aufsuchen, bevor man überhaupt was macht und die ganzen nicht genutzten Softwaredreingaben deinstallieren. Das dauert teilweise länger als eine neue saubere Installation. So war auf dem Medionrechner den ich meinem Bruder mal kaufte, Microsoft Live Essentials in 20! Sprachen installiert. Er benutzt das zwar, doch bis ich die 19 nicht benutzten Versionen deinstalliert hatte, verging eine gefühlte Ewigkeit. Danach heißt es erst mal Neu Starten (Reboot, eine der einfachsten Problemlösungen: Wenn nichts mehr tut, dann mach Reboot), weil viele Programme erst in einem zweiten Schritt vorher im Speicher liegende Teile entfernen können.

Danach geht man an das Entrümpeln der Autostarteinträge, die sich bei Windows an sieben Stellen in der Registry befinden. MsConfig zeigt alle an. Man ruft es aus mit "msconfig" in der Suchleiste auf. Dort klickt man auf den Reiter Systemstart und bekommt so was. Man sieht dann solche Einträge wie in dem Bild. Man kann sie ganz einfach aktivieren oder deaktivieren, so sind sie noch vorhanden wenn man sie später braucht. Man sieht hier eine ganze Menge, es zerfällt meist in drei Kategorien:

Die letzten kann man entfernen. Die mittlere Kategorie ist die schwierigste. Es gibt dort Programme, die man separat starten kann wie Office Schnellstarter - sind sie nicht beim Autostart aktiv, so startet Office eben langsamer, aber es gibt keine Probleme. Anders sind Dinge, die man nur selten braucht, wie eben der MyBOD Treiber - wenn er nicht gestartet wurde scheitet das Übertragen der Druckdaten über das Internet und man weiß nicht warum. Dann sollte man überlegen ob es sich lohnt das aus dem Autostart zu deinstallieren oder eine Notiz machen.

Auch danach ist ein Reboot anstehend.

DiensteWenn man dran ist, sollte man auch mal die Dienste überprüfen. Ein Dienst ist anders als ein Programm, ohne eine Oberfläche er stellt Funktionalität bereit. Viele Programme starten Dienste die dann regelmäßig wieder Programme aktivieren und sogar die Autostarteinträge wiederherstellen. Man sollte aber zuerst mal in der Ansicht alle Microsoft Dienste ausblenden, denn diese sind meist Bestandteil von Windows und nötig. Man erkennt in Msconfig aber nicht den Status. So kann hier "beendet" stehen wenn der Dienst zwar beim Systemstart aktiv ist aber dann nur auf eine neue Version prüft und sich selbst beendet - dann ist das okay. Aber ob er immer aktiv ist, sieht man nicht. Dazu ruft man die Dienste direkt auf ("Dienste" im Suchfeld). Dort sieht man dann die Dienste, wie sie gerade aktiv sind und ob sie automatisch gestartet werden. Hier kann man nun den Starttyp auswählen (in den Eigenschaften).Löschen kann man sie nicht, das geht nur über die Kommandozeile, doch ich verzichte drauf, weshalb man hier im Screenshoot auch noch Altlasten sieht wie von Googledive das längst deinstalliert wurde.

Zuletzt hilft ab und an auch ein Blick in den Taskmanager was gerade aktiv ist (am besten bei ruhendem Desktop ohne aktives Programm). Fällt hier etwas auf, so kann man weitersuchen wozu das gehört (Programmname in Google eintippen) und das genauer untersuchen.

Das letzte ist das tägliche Arbeiten. Wer wenig Speicher hat, sollte man überlegen wie viele Programme gleichzeitig aktiv sein müssen. wer mal schaut, wie viel Speicher heute ein Browser bei einigen geöffneten Tabs sich gönnt, der braucht sich über die Langsamkeit des Rechners nicht zu wundern. Da hilft es nicht benötigte Tabs zu schließen und in den Einstellungen abzuwählen, dass der Browser verlinkte Seiten im Hintergrund lädt, das findet sich je nach Browser unter unterschiedlichen Punkten wie "Netzwerkaktivitäten vorhersehen". Früher konnte man noch den Tipp geben einen weniger Ressourcen benötigenden Browser zu wählen, doch da selbst Opera nun auch auf die Chrome Engine ausweicht gibt es die Alternative nicht mehr.

SysiteminformationAnsonsten hilft es eben, Programme zu schließen, die man gerade nicht braucht. Auch hier hilft ein Blick in den Taskmanager wie viel Speicher etwas braucht (Reiter Prozesse). Viel Speicher brauchen auch oft Office Suiten. Bei Videoplayern gibt es welche mit großen Ressoucenverbrauch und welche mit wenig, ich nutze z.B. den kleinen SMplayer. Wenn es möglich ist, sollte man nicht benötigtes schließen.

Wer nur einen Rechner für Office braucht und nicht spielt, hat meist eine Onboard Grafik, die sich Speicher vom Hauptspeicher abknappst. Da kann man im BIOS einstellen, wie viel das ist und es herunterfahren. Das hat allerdings wenig Sinn bei 4 GB Hauptspeicher und einem 32 Bit Windows, weil je nach Motherboard man hier eh nur 3,25 bis 3,5 GByte für Windows nutzen kann, dann kann man der Grafik eben dann auch 512 MB gönnen. Wie viel Speicher Windows nutzen kann sieht man in der Systemsteuerung unter "System", hier sind von den 8 GB z.B. 7,75 GB nutzbar und 256 MB für die Grafik abgezweigt.

Bei nur 4 GB Speicher und wenn man weiß, dass man keinen Speicher erweitern will, sollte man trotzdem zu der 32 Bit Version von Windows greifen, auch wenn die günstigenfalls auf 3,5 GB zugreifen kann. Der Grund: 64 Bit Programme brauchen bis zu doppelt so viel Speicher. Ich kompiliere ja selbst auch Programme und brauche dann nur einen Switch umlegen und da sind 64 Bit Programme um 50-100% größer. Da lohnt es dann auf einige hundert Megabyte zu verzichten wenn man insgesamt so mehr Speicher hat.

Der einfachste Weg ist aber, Speicher aufzurüsten. Leider bekommt man nicht bei jedem Rechner die Handbücher für die verbauten Komponenten mit. Im Handbuch über das Mainboard steht drin welchen Speicher das Board unterstützt und welche Einschränkungen es gibt (manchmal kann man nur in zwei Slots identische Module einsetzen). Bei den heutigen Preisen für Speicher ist es oft am günstigsten schon beim Kauf etwas mehr zu nehmen. Wenn es später kaum noch neue Boards gibt die den Speicher brauchen so wird er teurer. So ist DDR2 Speicher den ich für meinen 4 Jahre alten Rechner brauche fast doppelt so teuer wie DD3 Speicher der aktuell verwendet wird. Wenn man später aufrüstet so bekommt man das Motherboard raus über "Leistungsinformationen und Tools" und dort über das Druckersymbol) detaillierte Informationen anzeigen und drucken). Damit kann man Google füttern und beim Hersteller findet man oft auch für alte Boards, welchen Speicher sie brauchen und ob man die Slots nur paarweise bestpcken darf oder nicht.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99