Das Moorsche Gesetz gilt noch immer – oder nicht mehr

So, an dem heutigen Artikel habe ich fast zwei Tage gearbeitet, vor allem daran die ganzen Daten zusammenzubekommen. Entsprechend lang ist er geworden. Ich hoffe ihr weist das zu würdigen.

Die ct‘ hat wie immer vor Weihnachten ihre Empfehlungen für den „optimalen“ PC (sortiert nach Anwendungen) gegeben. Wie immer gibt es einen Grundlagen Artikel, was man in jeder Preisklasse von Prozessor, Speicher, Festplatte und Grafikkarte erwarten kann. Mich hat zweierlei gestört: das erste war das im Text zwar darauf eingegangen wird, dass sich heute Einstiegsprozessoren und High-end Core i7 in der Singlethreadperformance kaum unterschieden, das sieht man an den Ergebnissen aber kaum. Die Tabellen führen nur Benchmarks von auf mehrere Threads optimierten, fließkommaintensiven Benchmarks. Die in einem früheren Artikel beim Vergleich genutzten Benchmarks wie PC-Marks, die die reale Performance von Anwendungsprogrammen als Basis nahmen, fielen weg,

Das zweite war dass man die AMD Prozessoren aber auch einige Intel Prozessoren im Low-End als veraltet darstellt. Nun zumindest bei AMD gilt dies im Hinblick auf den Stromverbrauch, weil AMD noch im 28 nm Prozess produziert. Intel hat inzwischen den 14 nm Prozess voll im Griff, das erlaubt es, wenn man gleich viele Transistoren für eine gewisse Funktion braucht, diese auf einem Viertel der Fläche unterzubringen und so den Stromverbrauch deutlich zu senken. Hinsichtlich der für Integeranwendungen wichtigen Leistung hat sich seit Einführung der Core Mikroarchitektur, das ist nun auch schon 7 Jahre her, nicht viel getan, hier gab es nur evolutionäre Veränderungen. Intel hat seit 15 Jahren vor allem an Schraube Fließkommaperformance gedreht, die bei typischen Desktopanwendungen wie Textverarbeitung, Surfen, Mail aber auch Videodekodierung kaum genutzt wird. Continue reading „Das Moorsche Gesetz gilt noch immer – oder nicht mehr“

Das Moorsche Gesetz

Sicher kennt der eine oder andere das Moor’sche Gesetz. 1965, als die integrierte Schaltung noch jung war, prognostizierte Gordon Moore, damals noch bei Fairchild, dass sich die Zahl der Transitsorfunktionen einer integrierten Schaltung alle 12 Monate verdoppeln würde.

Das war etwas optimistisch, denn wie immer wenn es einen technischen Durchbruch, gibt war die Zuwachsrate enorm hoch, später flachte sich das wieder ab und 1975, zehn Jahre später korriegierte er sich auf 24 Monate. In der Praxis ist zumindest bei Intel eine Verdopplung etwa alle 20 Monate eingetreten.

Wie lange wird dies noch so weitergehen? Es gibt zwei möglich Antworten. Das eine ist die technisch und wirtschaftlich mögliche Weiterentwicklung und die andere die physikalisch mögliche. So gibt es auch zwei Prognosen: Gordon Moore meinte 2007 es würde noch 10 bis 15 Jahre weitergehen, während Patt Gelsinger es bis 2029 als gültig ansieht. Ich denke das entspricht bei Gordon dem was wirtschaftlich umsetzbar ist und Gelsinger dem was überhaupt möglich ist. Continue reading „Das Moorsche Gesetz“

Chancen und Probleme

Ruhezustand - Mit Shift beim Anklicken sichtbar gemachtDie Computerindustrie ist in einer Krise. Nicht wegen der aktuellen Wirtschaftskrise, sondern allgemein. An immer mehr Fronten ist zu erkennen, das das Wachstum langsamer wird, wenn nicht Stillstand zu erkennen ist. Seit über 40 Jahren lebt die Branche nach dem Moorschen Gesetz, wonach (je nach Autor sich alle 12-24 Monate alles verdoppelt). Wahlweise Speicherplatz, Geschwindigkeit, Taktfrequenz.

Doch das ist schon lange nicht mehr überall so. Die Taktfrequenzen sind seit Ende 2002 kaum noch angestiegen, zeitweise sogar wieder gesunken. Die 3 GHZ Marke ist eine Grenze die nur noch wenige Prozessoren knacken. Bei der Größe von Festplatten hat sich auch seit 2 Jahren nicht mehr viel getan. Seitdem ist die Datendichte um ein Drittel gestiegen, doch das ist nichts im Vergleich zu den rapiden Zuwächsen zuvor. Wenn es heute 2 TByte Modelle zu kaufen gibt, dann weniger weil mehr pro Platte rauf geht als vielmehr dass nun mehr Platten im Stapel ihre Kreise drehen.

Schlimmer noch sind die Hersteller von PC Prozessoren dran: Zwar können sie noch immer die Integrationsdichte ihre Prozessoren steigern, aber nicht mehr die Leistung pro Kern. Stattdessen werden es immer mehr Kerne. Das Problem: Wer braucht viele Kerne? Die meisten Prozessoren gehen in Desktop PCs. Hier brachte der zweite Kern eine echte Verbesserung: Ein Kern steht nun immer zur Verfügung wenn ein zweiter Kern im Hintergrund beschäftigt ist. (Bei den meisten wohl mit dem Virenscanner, seit ich den Duden Korrektor kenne, würde ich jedem der diese Software auch einsetzt zu einem Zweikernprozessor raten, denn er blockiert nach dem Laden je nach Dokumentlänge recht lange einen Kern). Continue reading „Chancen und Probleme“