Der schnellste Z80 Rechner

Loading

Bevor ich als Nächstes einen weiteren Artikel über die Clusterung – diesmal dem sinnvollsten Einsatz bei einer Schwerlastrakete bringe, sei mir ein nostalgischer Artikel vergönnt. Es geht um Computer, und was noch wichtiger ist, nicht heutige Computer, sondern die aus den Achtzigern. Dies als Vorwarnung. Alle die das nicht interessieren sollten nun woanders hin gehen.

Ich kam auf das Thema, weil ich seit einer Woche, den schnellsten Z80 Rechner besitze, der heute technisch möglich ist, und wahrscheinlich der auch in Zukunft schnellste Z80 Rechner der Welt. Continue reading „Der schnellste Z80 Rechner“

Die Zahl für heute: 23,12

Loading

In dem heutigen Blog geht es erneut um die CPU-Entwicklung und ich will mal die einzelnen Faktoren auseinander dividieren, um dann auf die ominöse Zahl 23,12 zu kommen und zuletzt mal begründen, warum ich den 32-Bit-Mikroprozessor für das Optimum halte.

Fangen wir mal mit dem Nettoergebnis an. Um wie viel ist die Geschwindigkeit eines Computers seit meinem ersten gestiegen? Nun wenn man es genau nimmt, vom ersten (Ti 99/4a) gibt es kein Benchmark, das heute noch laufen würde, aber es gibt vom Z80 Prozessor der in meinem zweiten Rechner steckte ein Ergebnis des Dhrystone Benchmarks. Der erreichte bei 2,5 MHz 91 Dhrystones, skaliert man das auf 4 MHz so sind es 145, in einem Emulator erreichte ein 3,47 MHz Z80 142 Dhrystones. Normiert wird der Benchmark auf die VAX 11/780 die je nach Literatur bei 1560 bis 1757 liegt. Gängig werden 1757 Dhrystones als 1 Dhyrstone-MIPS zu definiert.
Continue reading „Die Zahl für heute: 23,12“

Benchmark my Computer!

Loading

Die ct‘ hat in der Ausgabe 10/1987 einen kleinen Benchmark vorgestellt, den sie dann auch einige Jahre lang genutzt hatte. Die als HL-Benchmark bezeichneten Programme (HL: für High Level) sollten auf Hochsprachenebene verschiedene Aspekte eines Computers testen:

  • Berechnung mit Ganzzahlvariablen
  • Berechnung mit Realzahlvariablen
  • Berechnung transzendenter Funktionen
  • Textausgabe
  • Grafikausgabe
  • Speichern auf den Massenspeicher (damals je nach System Floppy Disk oder Festplatte)


Continue reading „Benchmark my Computer!“

Schummelprogramme

Der Skandal um VW hat nun ja Wellen geschlagen und er veranlasst mich zu meinem Blog über Programme die ein sagen wir mal etwas geschöntes Bild der Wirklichkeit bieten. In der Automobilindustrie ist dass vielleicht die Ausnahme, vielleicht auch die Regel, das wird sich zeigen, aber in der Informationstechnologie ist es die Regel. Hier mal einige Beispiele von „Schummelprogrammen“.

Schon zu DOS Zeiten ging das los. Spätestens als der IBM AT erschien brauchte man einen Benchmark um die Computer zu vergleichen. Sehr bald etablierte sich der Norton Sysinfo Index (SI) als Maßstab. Die Norton Utilities hatten ein Programm das neben Systeminformationen auch einen Geschwindigkeitsindex relativ zum IBM PC (1.0). Einige (von Herstellern gepatchte) DOS-Versionen erkannten das Programm und verstellten den Systemtimer der zur Zeitmessung diente. Diese Maßnahme ist eigentlich nicht nötig, denn das Programm selbst kann man als Schummelprogramm einstufen. Die Programmierer haben es sich sehr einfach gemacht und die Messung erfolgt in einer kleinen Schleife. In dieser kamen zwei Befehle vor für die der 8086 sehr lange brauchte: IMUL und IDIV. Diese Befehle kamen in normalen Programmen relativ selten vor und die Nachfolger des 8086 beschleunigten gerade diese sehr stark. So hatte ein 8086 bei gleicher Taktfrequenzeinen SI-Wert der sechsmal höher als beim IBM PC war. In Wirklichkeit war er aber nur etwa dreimal schneller. Continue reading „Schummelprogramme“

Das Ende eines Grundsatzes

Auch so könnte man ein Fazit aus den Benchmarks ziehen, welche die ct in ihren aktuellen Heft veröffentlicht. Sie hat Prozessoren von AMD und Intel unterschiedliche Benchmarks laufen lassen und auch die Prozessoren waren bunt gemischt – vom 35 Euro Exemplar bis zum neuen 950 Euro iCore i7 Haswell-EP Flagschiff.

Ich hatte jahrelang als Grundsatz beim Rechnerkauf bei allem auf die Mitte zu achten. Also bei Arbeitsspeicher, Prozessor, Festplattengröße. Damit bin ich immer gut gefahren. Man kann das auch gut begründen. Bei Festplatten ist es so, dass wenn man mehr Geld ausgibt, die Kapazität zuerst überproportional ansteigt, um dann stark abzuflachen. Bei Arbeitsspeicher bedeuten zu wenig, dass der Rechne rstark ausgebremst wird, weil viel auf die Festplatte ausgelagert ist, ist er zu groß wird er eventuell gar niemals vollständig genutzt. Bei Prozessoren gab es lange Zeit auch die Beziehung dass die Leistung jenseits der billigsten Exemplare zuerst stark anstieg und man bei den teuren Exemplaren extrem viel drauf zahlt für wenig Mehrleistung.

Wenn man das richtige Benchmark nimmt, findet man das auch noch in der ct bestätigt, so erreicht ein Celeron J1900 (35 Euro) 5% der Leistung eines ICore i7 5960X (950 Euro) – zumindest im Linpack Benchmark. Man kann aber auch mal sehen, wie schnell der Prozessor bei Benchmarks mit real existierenden Anwendungsprogrammen ist so der Office PC Mark 8 oder Sysmark 2014. Da kommt er Celeron schon auf 50-60% der Leistung des genannten iCore Prozessors. Der in etwa gleich teure Celeron G1840 erreicht sogar 80%. Wie diese enorme Diskrepanz? Continue reading „Das Ende eines Grundsatzes“