… und zar nicht nur in der Weltraumfahrt, sondern auch bei den Prozessoren. Das wurde mir klar, als ich in der Recherche für frühere x86 Generationen in alten ct‘ Artikeln nachgeschaut habe. Damals kamen Vergleiche zwischen den neu erschienen 32 Bit Prozessoren (MicroVax, NS3032, MC68020, V70) und der 80386, Artikel über neue RISC Architekturen und den Pentium. Viele waren selbst beim Pentium optimistisch, dass diese Architektur der Vergangenheit angehörte. Das war so nach dem Muster „Der Pentium hat 3,3 Millionen Transistoren und emuliert mit einer RISC Schicht eine x86 CPU, der Alpha hat mit 1,7 Millionen Transistoren die dreifache Geschwindigkeit – klar das diese Emulationsarchitektur untergehen wird“.
Wie wir wissen ist das heute Vergangenheit. Heute sind andere Zeiten. Die ct‘ schreibt nichts mehr über Prozessorengrundlagen, dafür wie man mit dem Handy den 3D Drucker fernsteuert, für die die sogar zum Bedienen des PC zu faul sind. Vor allem aber findet x86/x64 Chips überall, vom Smartphone als kleinstem Gerät bis zum schnellsten Supercomputer. Alle anderen Architekturen die es mal gab wurden an den Rand gedrängt, egal ob es nun PowerPC, MIPS, SPRAC sind. Andere wie PA-RISC oder Intels eigene Entwicklungen wie der i860 oder Itanium wurden eingestellt.
Ich kann mich an keine neue Prozessorarchitektur erinnern, die in den letzten zwanzig Jahren neu vorgestellt wurde (also keine Weiterentwicklung einer bestehenden ist wie dies bei ARM11 der Fall ist). Das zeigt schon die Misere. Dabei gibt es heute mehr den früher die Möglichkeit des Wechsels. Das zeigen Smartphones, Tabletts und Co. Früher war die Software der Grund warum x86 so erfolgreich war und auch Windows. Jeder kannte Windows, jeder kannte gängige PC Programme. Mehr und mehr musste man die auch nicht mehr kaufen, weil es Freeware Alternativen gab. Das zeigte schon Linux – es mochte umsonst sein, es mochte Zig Distributionen mit x-verschiedenen Oberflächen für jeden Zweck geben – selbst mit Aktivierungszwang und Unterbinden der Mehrfachinstallation von Schlüsseln konnte nichts an der 99% Dominanz von Windows ändern.
Bei dem Smartphone installiert man aber keine Anwendung mehr, man startet eine App. Bei der ist es Wurst auf welchem Gerät sie läuft. Firmen ersetzen mehr und mehr Programme sogar durch Web Dienste, bei denn dann gar kein Programm mehr installiert wird. Dann ist die Hardwareplattform noch unbedeutender.
Auf der anderen Seite gibt Intel seinen Konkurrenten jede Menge Steilvorlagen. Erweiterungen der Architektur seit dem Pentium erfolgten fast ausschließlich bei den Fließkommaoperationen. Das fing mit MMX bei der zweiten Pentium Generation an und hörte bei AVX512 auf. Darüber freuen sich die Betreiber von Supercomputern, doch die meisten Prozessoren stehen in Servern oder in heimischen PC’s und dort wird selten mit Fließkommazahlen gearbeitet – Textverarbeitung, Surfen selbst Spiele und Videodekodierung kommen weitgehend ohne Fleißkommaoperationen aus, und selbst wenn man welche braucht z.B. in Excel, dann haben die Anwender wohl kaum so große Arbeitsblätter, dass sie 100 Milliarden Rechnungen pro Sekunde ausführen.
Das wäre die Chance für AMD und andere Anbieter anstatt die ganzen Erweiterungen von Intel nachzumachen wäre für viele Anwender ein Prozessor mit mehr Integereinheiten oder mehr Kernen sinnvoller (die Integreinheiten könnte man nach außen durch Hyperthreading ansprechbar machen). Intel selbst hat das ja erkannt und den Xeon Phi auf Basis der P54C, also der Pentium Architektur geschaffen, allerdings weil dieser Rechner ja auch für Supercomputer gedacht ist mit der AVX Erweiterung. Aber dann gehen ben 50 Kerne auf einen Chip anstatt 16 bei den höchstintegrierten Xeons. Nächstes Jahr werden es dann 70 sein. Mir wäre ein Prozessor mit 16 einfachen Kernen auch lieber als eienr mit 4-6 und vielen Erweiterungen die ich gar nicht nütze.
Aber das sich daran was ändert ist weit und breit nicht in Sicht.
Langweilig ist es auch im Blog – seit einer Woche fast keine neuen Kommentare. Seid ihr alle im Urlaub?