Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 577: 18.12.2019 - 21.12.2019

18.12.2019: Der IBM PC Junior

In meiner Retro-Serie über Computer aus den Zeiten, als noch nicht die Warmduscher den Computer entdeckt hatten, will ich an einen heute fast komplett vergessenen Rechner von IBM erinnern: den IBM PC Junior, abgekürzt PCjr.

Wie immer hat die Geschichte eine Vorgeschichte. 1980/981 wurde der IBM PC entworfen und kam am 12.8.1981 auf dem Markt. Der IBM PC wurde dann zwar zu einem erfolgreichen Computer, aber das Ausgangsgerät hatte IBM wohl wirklich als Heimcomputer geplant: Das Grundgerät hatte als Anschlüsse einen für die Tastatur und einen für einen Kassettenrekorder! Selbst das BASIC im ROM konnte nur auf Kassette speichern. MS-DOS für den Betrieb von Disclaufwerken musste man separat kaufen. Da das nicht das Einzige war – man benötigte auch noch eine Karte mit der Druckerschnittstelle, den Diskettenkontroller und ein mindestens Laufwerk, dazu eine Textgrafikkarte und einen Monitor war der IBM PC als Komplettgerät aber nicht billig und kostete bei Markteinführung in Deutschland rund 11.000 DM. Da nützte es auch nichts, wenn die US-Version der CGA-Grafikkarte das Bild auf einem NTSC-fähigen Fernseher ausgeben konnte.

Als Heimcomputer war aber auch so der Computer ungeeignet. Nicht nur war er zu teuer. Es fehlten auch die Soundfähigkeiten. Der kleine Lautsprecher im Gehäuse gab nur reine Töne aus. Joysticks konnte man auch nicht anschließen.

Zwei Jahre später unternahm IBM einen echten Versuch, den Heimcomputermarkt zu erobern. Allerdings wurde kein komplett neuer Rechner entworfen, sondern der IBM PC umgestaltet.

Die erste auffällige Änderung war das Gehäuse es war deutlich kleiner. Es gab nur einen Einschub für Erweiterungskarten und der hatte einen anderen Standard als der IBM PC. Es gab zwei Modelle. Eines ohne Diskettenlaufwerk, das zweite mit einem eingebauten 5,25 Zoll Slimline-Laufwerk das 360 KByte speichern konnte. Derartige Laufwerke setzte IBM auch beim Portable PC ein, doch dort aufgrund der geringeren Masse und Größe. Mit nur einem Diskettenlaufwerk hätte man schwer mit dem Rechner arbeiten können, weil auf einer Diskette meistens das Betriebssystem und das Anwendungsprogramm waren, die Daten aber auf einer zweiten Disk gespeichert wurden.

Der originale IBM PC benötigte eine Karte für die Darstellung, die ihr Videoram in einem geschützten Bereich oberhalb von 640 KByte einblendete. Der IBM PC hatte die Fähigkeiten der Color Graphic Adapter Karte und einen Ausgang für einen NTSC-Fernseher. (Es gab auch Modi mit 80 Zeichen, doch die wären auf einem Fernseher unleserlich gewesen). Der Videospeicher ging beim IBM PC jr aber vom Arbeitsspeicher ab. Das war von Bedeutung, weil das Gerät in der Basisversion mit 64 KByte RAM ausgeliefert wurde. Selbst die fortgeschrittene Version mit Diskettenlaufwerk hatte nur 128 KByte RAM, die auf einer Steckkarte saßen. Das war definitiv zu wenig. Zeitschriften bestötigten ihm das er nicht für „Business Computing“ geeignet war. Beim Grundgerät fiel zwar MS-DOS weg (der BASIC Interpreter war im Cartridge-ROM verbaut), doch wer MS-DOS 2.x lud, hatte schon mal 30 KByte speicher weniger. Selbst bei einer genügsamen Anwendung wie Wordstar war dann der Speicher extrem knapp. Mit Zusatzkarten konnte man den Rechner zwar theoretisch auf 640 KByte aufrüsten, doch das kostete nochmals extra. Für die Soundfähigkeiten hatte man einen dreistimmigen Soundchip von Texas Instruments verbaut. Er war in den Fähigkeiten vergleichbar mit Soundprozessoren in anderen Heimcomputern. Joystickanschlüsse hatte er trotzdem nicht, dafür einen Anschluss für einen Light Pen. Ebenso fehlte eine Druckerschnittstelle.

Stattdessen gab es zwei Anschlüsse für Cartridges, jedes mit maximal 64 KByte ROM. Cartridges gab es damals bei vielen Heimcomputern und sie hatten ihre Wurzeln in den Modulen für Spielkonsolen. Für den Hersteller hatten sie den Vorteil, dass der Laie sie nicht wie Disketten kopieren konnte. Aber die ROM Cartridges waren auch teurer als Disketten. Die CPU war wie beim IBM PC eine 4,77 MHz AMD D8088, eine Second Source Version des Intel 8088. Was der Anwender recht bald bemerkte, war das Keyboard mit „Notebook-Tasten“: Die Tasten hatten einen sehr geringen Hub und kaum haptisches Feedback, anders als man es von IBM gewohnt war. Die Tastatur war kabellos, wahrscheinlich, damit man den Rechner an den Fernseher anschließen konnte und da ist der Abstand zum Fernseher größer als zum Monitor. Sie übertrug die Daten über Infrarotimpulse, ähnlich wie eine Fernbedienung und das entpuppte sich als fehleranfällig.

Vergleicht man den Rechnern mit 8 Bit Rechnern dieser Zeit wie dem C-64 so fällt Folgendes auf:

Das bedeutete: verglichesn mit einem Heimcomputer punktete er nicht mit besserer Technik. Verglichen mit einem IBM PC, fiel auf, das man mit nur einem Laufwerk und so wenig Speicher kaum arbeiten konnte. Das war auch nicht beabsichtigt, denn die meisten Programme schrieben damals aus Performancegründen direkt in den Bildschirmspeicher. Da der Videospeicher aber nicht dort lag wo er beim IBM PC war, fielen diese auf die Schnauze. Insbesondere die Killerappilation der damaligen Zeit: Lotus 1-2-3 lief nicht.

Dafür war er aber teuer. Das Grundgerät erschein im März 1984 mit 64 KByte RAM kostete 699 Dollar, die erweiterte Version mit 128 KByte RAM und einem Diskettenlaufwerk kostete 1269 Dollar. Zum Vergleich: der C-64 war im Oktober 1982 auf den Markt gekommen und bei der Einführung kostete 595 Dollar, war zu dem Zeitpunkt aber schon auf 299 Dollar gefallen. Zwar kostete ein Diskettenlaufwerk beim C64 mehr als der Rechner selbst, aber selbst mit Floppylaufwerk war ein C64 nur so teuer wie die billigste Version des PCjr und eine adäquate Konfiguration war mehr als doppelt so teuer. Das Gerät war für einen Heimcomputer deutlich zu teuer und spielte preislich eher in der Liga der professionellen 8 Bit Rechner wie der Commodore CBM Serie oder dem Apple II.

Beim IBM PC wandte sich IBM an Geschäftsleute. Die kannten IBM schon und IBM hatte bei Computern vor allem wegen des Services einen guten Ruf. Daher wurde der IBM trotz des hohen Preises und obwohl auch er technisch eher schlechter war, als andere 16 Bit Rechner wie der DEC Rainbow oder Victor Sirius, sich gut verkaufen. Im Heimcomputermarkt hatten aber andere Firmen wie Commodore, Texas Instruments, Sinclair (in den USA: Timex) und Atari sich aber schon etabliert. Nur mit dem Namen „IBM“ konnte man bei diesem Kundenkreis keinen PC verkaufen, der viel teurer war als die Konkurrenz.

Apple reagierte, senkte den Preis des Apple IIe und brachte mit dem Apple IIc eine „All in“ Variante mit eingebautem Diskettenlaufwerk und Monitor heraus. Ein Apple IIc kostete mit Monitor, 128 KB RAM und einem Disklaufwerk mit 1295 Dollar fast genauso viel wie ein IBM PCjr, war aber voll kompatibel zum Apple II, hatte zudem einen Monitor.

IBM reagierte und bot im Herbst 1984 zum Weihnachtsgeschäft kostenlose Aufrüstungen an. Die Rechner hatten 512 KByte RAM, ein normales Keyboard und es gab Bundles mit Software oder Preisnachlässe. So verkaufte IBM zu Weihnachten 1984 alleine 200.000 Einheiten, vorher waren es nur 50.000 gewesen. Doch im Januar 1985 endeten die Bundles und die Rechner verkauften sich nicht mehr. Dauerhaft subventionieren wollte IBM die Rechner nicht, so stellten sie im März 1985 die Produktion ein. Gleichzeitig drängten immer mehr kompatible Rechner auf den Markt. Für den Preis, den IBM für den PcJr haben wollte, konnte man auch einen Kompatiblen mit zwei Laufwerken, Monitor und 256 KB RAM bekommen – eine Konfiguration, mit der man arbeiten konnte.

In Deutschland wurde der Rechner übrigens nie verkauft, viele Zeitschriften haben ihn nicht mal testen können (ich habe vergeblich nach einem Test in der ct‘ gesucht). Der Grund erscheint heute seltsam: aber Computer wurden damals zuerst in einem Land eingeführt und erschienen erst lange Zeit später auf anderen Märkten. Der IBM PC erschien erst nach einem Jahr auf dem deutschen Markt, der Apple II ebenso. Es gab aber auch Ausnahmen – die gute Marktposition die Commodore mit dem CBM System auf dem deutschen Markt hatte, wurde auch damit begründet, das die Firma sich nicht so viel Zeit lies, die Rechner in Europa einzuführen und so vor Apple präsent war.

19.12.2019: Wer hat Erfolg auf dem Heimcomputermarkt – kein Zufall

Bei der Recherche zu meinen letzten Artikeln habe ich auch beim Stöbern alte Testberichte der ct aus den Jahren 83 bis 85 gelesen. Damals erschienen laufend neue Heimcomputer und in fast jeder ct‘ wurde einer getestet. In der Retroperspektive wissen wir natürlich, was erfolgreich war. Die richtigen Millionenseller waren:

Alle Angaben sind Schätzungen, für den C64 findet man z.B. eine Bandbreite von 12,5 bis 37 Millionen verkauften Einheiten. Weggelassen habe ich Computer, die zwar hohe Stückzahlen erreichten, doch die bei uns kaum gekauft wurden wie die MSX-Serie (vor allem in Japan) und TRS-80 (fast ausschließlich in den USA).

Wenn man sich die Situation in Deutschland ansieht, dann gab es so Mitte der Achtziger Jahre eine Dreiteilung des Marktes auf drei Anbieter, obwohl es zig Konkurrenten gab:

Warum?

Wenn man sich die Rechner anschaut, so hat jede Serie spezifische Vorteile, die jeweils für einen bestimmten Kundenkreis wichtig waren. Der Spectrum punktete vor allem mit dem Preis. Er war mit Abstand der billigste Computer, nicht nur dieses Trios, sondern allgemein. Dazu kam, dass auch das Aufrüsten billig war. Sinclair bot lange Zeit kein Diskettenlaufwerk für den Computer an, stattdessen eine Abwandlung eines Bandlaufwerks, das Microdrive - sollte so schnell wie Diskette sein, war aber vor allem anfällig und bei den Medien recht teuer. Dafür war der Rechner auch „billig“ aufgebaut. Das war bemerkbar an der Tastatur, die das Gefühl der Gummitasten eines Taschenrechners vermittelte. Noch haarsträubender war der RAM-Ausbau. Die 48 K Version hatte 32 KByte RAM mehr als die 16 K Version, die aber aus acht defekten 64 KBit Chips bestand, bei denen nur eine Bank aktiv war. Sparsam war der Computer auch bei den Anschlüssen. Besonders auffällig: sogar ein Anschluss für die damals als obligaten Joysticks fehlte. Sie brauchte man für die Nutzung als Spielcomputer. An so was exotisches wie eine Schnittstelle für den Drucker dachte Sinclair auch nicht. Das musste der Anwender nachrüsten.

Der Spectrum wandte sich an die, die nicht planten mehr als den Basiscomputer einzusetzen und die nicht viel ausgeben wollten. Im Oktober 1985 kostete ein Spectrum 48K 333.- DM. Wollte man nur eine vernünftige Tastatur, so kostete das beim Nachfolgemodell Spectrum+ mit echter Tastatur schon 444.- Das Microdrive gab es für 388.- Echte Diskettenlaufwerke oder Anschlüsse für Joysticks oder Drucker erhöhten Preis dann rasch auf den des C64.

Der C64 hatte sich im „Computerkrieg“ 1982/83 als Sieger und Marktführer durchgesetzt. Im Oktober 1982 für 1.495 DM erschienen senkte Commodore den Preis innerhalb eines Jahres auf die Hälfte. Dieser Preisdruck führt dazu, dass Texas Instruments sich vom Markt zurückzogen, die ihren Ti 99/4a nur noch mit Verlust produzieren konnten. Er löste aber einen Trend zu Rechnern mit 64 KByte RAM aus. Vorher kamen die Anwender einige Jahre lang problemlos mit maximal 16 KByte RAM aus. Nun erschienen in schneller Folge Rechner mit mehr RAM, manche wie der Spectrum oder Dragon sogar hastig (beide Rechner schienen zuerst mit 16 bzw. 32 KByte RAM) aufgerüstet. Der Commodore C64 hat wie viele Kommodore Rechner eine wechselvolle Geschichte hinter sich. Gedacht ursprünglich als Apple II Konkurrent wurde er, nachdem man den Videoprozessor VIC nicht an andere Firmen lizenzieren, konnte um diesen herum gebaut. Was für Commodre extrem günstig war, war das die Firma Anfang der Siebziger Jahre den Hersteller MOS Technology aufgekauft hatte und so alle integrierten Bauteile vom Prozessor über Soundchip, Videoprozessor bis zu den RAM selbst produzieren konnte und so auch diesen Preiskrieg gewann. In der Retroperspektive kann man den C64 als Spielkonsole bezeichnen, der als Heimcomputer getarnt wurde. (Ja ich weiß nun kommen wieder die bösen Kommentare von ehemaligen C64 Besitzern). Anders kann man sich den Aufbau des Geräts nicht erklären. So wurde das BASIC 1:1 von der CBM Serie übernommen, die war aber textbasiert und Sound hatte die auch nicht. Nicht das es nicht möglich gewesen wäre ein besseres BASIC zu schrieben – im kurz darauf erschienen C16 war ja eines mit Befehlen für Sound und Grafik verbaut und der stand als 16 K Computer unter wesentlich größerem Preisdruck. Dazu gehört auch das die Floppy mehr als Alibi diente und man Geschwindigkeit nur dadurch opferte, indem man einfach nur eine anstatt acht Leitungen nach außen zog. Andere Aspekte wirkten richtig lieblos wie das hohe Gehäuse („Brotkasten, wurde aber später nachgebessert) oder das man, obwohl das ROM die obersten 20 KByte des Arbeitsspeichers überdeckte en Farbspeicher für den hochauflösenden Modus im unteren Speicher anlegte, wo der dann nochmals Speicher belegte. Dadurch hatte ein C64 beim Start weniger Bytes frei als ein Spectrum mit 48 KByte Speicher. Das alles zählte nicht, sofern man den C64 nur zum Spielen nutzte. Die konnte man auch von Kassette laden, gespeichert wurde da ja nichts und mit den Einschränkungen des Basics kam man so auch nicht in Berührung. Es gab den „Standard-Effekt“. Sobald viele Kumpels einen C64 hatten, war es auch leicht an Softwaere durch Tausch heranzukommen.

Relativ spät kam die Serie heraus, dich einsetzte. Die Amstrads. Sie wendeten sich aber auch an eine andere Zielgruppe. Sie kamen gleich als Komplettrechner heraus – mit Monitor und beim ersten Gerät Kassettenrekorder, dann gleich mit Disk. Der Monitor lieferte die 80 Zeichen Fähigkeit, wichtig, wenn man irgendwelche Arbeiten mit dem Rechner machen möchte, denn schon Textverarbeitung ist ziemlich mühsam, wenn man nicht mal die Zeile komplett auf dem Monitor sieht. Mit CP/M eröffneten sie einem auch die breite Palette an Anwendungsprogrammen für das Betriebssystem. Das war eine andere Zielgruppe. Leute denen ein „normaler“ CP/M Rechner, Apple II oder PC Kompatibler einfach zu teuer waren. Trotzdem auch als Spielerechner gut zu gebrauchen, denn die Grafik schlug beide Konkurrenten. Die höchste Auflösung war 640 x 200 Pixel und alle Modi hatten frei adressierbare Punkten (C64 und Sinclair erlaubten nur das Setzen einer Farbe für ein Zeichen also 8x8 Punkte) und dank gelungenem Bankswitching hatte man trotz eines viel größeren Bildschirmspeichers von 16 KByte (Spectrum 6 KB Farbspeicher, 0,75 KByte Zeichenspeicher, C64 (8 KByte Farbspeicher, 1 KByte Zeichenspeicher) mehr Bytes frei – 42,5 KByte bei den Modellen mit Disk. Im Preis war das Komplettpaket mit dem C64, Floppy 1541 und Monochrommonitor vergleichbar, nur denke ich wird kaum ein C64 Besitzer ihn an einen Monitor angeschlossen haben. So gab es drei Preisklassen die auch drei Anwendergruppen ansprachen. Man darf nicht vergessen, das selbst die 333.- für den Sinclair 48K inflationskorrigiert heute über 400 Euro entsprechen. Viel Geld für einen Schüler.

Warum kam aus den vielen anderen Modellen nicht der Renner?

Es gab mehrere Gründe. Zum einen konnte man zumindest die Commodore und Amstrad Rechner in jedem Kaufhaus kaufen. Das setzte die Hemmschwelle herab und damit gab es von Anfang an ein großes Filialnetz. Die Amstrads wurden z.B. in Deutschland von Schneider in Lizenz gebaut. Viele andere Computer, die ja meist in den USA oder England entwickelt wurden, gab es nur über einen deutschen Generaldistributor zu kaufen.

Das zweite ist, das diese drei Rechner auch in ihrer Klasse die billigsten waren. Die CPC waren zwar im Einstiegspreis teuer als ein C64 doch wenn man diesen um die Flopy und einen Monitor erweiterte sah es anders aus. Alle Konkurrenten waren teurer und zwar oft erheblich teurer. Nehmen wir den Alphatronic PC, in der Leistung und Ausbaumöglichkeiten in etwa mit einem CPC vergleichbar, nur ohne Floppy und Monitor. Das Grundgerät kostete 1495 DM, die Floppy weitere 1750 DM. Ein CPC 664 mit Monitor und Floppy war dagegen für 1598 DM zu haben. Ähnlich sieht es bei den Konkurrenten für den C64 wie Dragon 64 oder Spectrum wie den Oric aus. In einer Zeit, wo das für viele der erste Computer war, konnte sich der potenzielle Käufer mangels Vorwissen nur an technischen Daten orientieren. Wenn die gleich aussahen, aber ein Rechner erheblich teurer war als ein anderer, dann war die Wahl oft schon gelaufen. Das man vielleicht beim Ausbau dann wieder Geld sparte oder mehr Vielfalt bei der Auswahl an Zubehör hatte, wenn die Druckerschnittstelle mit verbaut war oder gar eine Standardschnittstelle und kein herstellereigener Bus merkte man erst hinterher. Manche Tücken sind sogar ziemlich versteckt, so das viele Rechner gar nicht jedes Pixel einfärben konnten, sondern nur acht einer Rasterzeile eines Zeichens (TMS 9928/29 Videoprozessor verbaut in vielen Geräten) oder gar nur eines ganzen Zeichens (wie Spectrum, C64, VC20 und alle Geräte die eigentlich nur Blockzeichengrafik konnten). Das entnahm man nicht den technischen Daten und wie ich feststellt,e auch nicht den Tests.

Vot allem gaben sich viele Konkurrenten auch technische Bloßen. Der ORIC kam zuerst mit einer schlechten Tastatur, dann als ORIC Atmos mit echter Tastatur, patze aber bei den Anschlussmöglichkeiten. Nicht mal einen Gameport gab es. Der Dragon war ein umdeklarierter Tandy Color Computer mit seinen ganzen technischen Mängeln oder es gab kein deutsches Manual (damals konnten nicht so viele englisch) oder kaum Peripherie. Andere Rechner kamen einfach zu spät. Ich habe in der ct‘ Tests des Enterprise 128, Memotech 512 und Thomson MO5 gefunden. Alle hatten was besonders. Waren entweder schnell (Memotech) oder mit einem guten BASIC und viel freiem Speicher (Enterprise) oder hatten nette Extras wie einen Lichtgriffel (Thomson). Aber in einem Markt in dem die Segmente (siehe oben) schon weitestgehend aufgeteilt sind bleibt nicht viel Platz für Newcomer, die zudem beim Einstand zwangsläufig teurer sind und noch kein Vertriebsnetz haben. Erfolg hatten neben den obigen drei Marktführern eigentlich nur schon etablierte Firmen, die alte Rechner etwas aufbohrten. So Atari, nachdem Tramiel die Firma übernommen hatte. Man verpasste den alten Modellen mehr Speicher, eine bessere Tastatur und verkaufte sie vor allem billiger. In die Zeit fallen dann auch Aufrüstoptionen mit Speicher, die dem Käufer wenig nutzen bringen wie der Spectrum 128, Atari 130 XE oder mein absoluter Liebling, die 64 KByte MSX Rechner – egal ob man einen MSX Rechner mit 32 oder 64 KByte kaufte, man hatte immer genau 28.711 Bytes unter BASIC frei …

Zudem kamen die MSX zumindest nach Europa einfach zu spät. 1985 war schon der Atari ST erschienen, der Amiga stand vor der Tür. Die Zeit der 8 Bit Rechner neigte sich dem Ende zu, sie waren technisch veraltet und wurden jetzt über der Preis verkauft, denn nicht jeder konnte sich die 3.000 DM für einen Atari ST leisten, ein PC Kompatibler war sogar noch teurer. Aber gerade mit dem Preis haben Newcomer, die ja erst mal die Investitionen in das Gerät - Software, Custom-IC, Gehäuse etc. reinbekommen, müssen eben ein Problem.

Schmunzeln musste ich auch bei manchem Testbericht, so dem über den C64, bei dem der Autor als Fazit empfiehlt, doch einen VC20 mit Speicherweiterung zu kaufen, wenn man BASIC lernen wolle. Mein absolute Lieblingsstelle ist aber die in dem Test über den Commodore Plus 4, dort heißt es „wem 60 K Speicher unter BASIC nicht reichen, der sollte seinen Programmierstil überprüfen“ … Ich dachte zuerst daran, wie lange heute bei mir Programme sind, aber dann muss ich dem Autor recht geben: 60 KByte lange Programme in einer Sprache zu entwickeln, die keine lokalen Variablen, keine Prozeduren und Funktionen unterstützt ,und bei der alle Zeilen durchnummert sind … das hat schon was von Masochismus. Das „Plus 4“ Paket verriss der Text übrigens und empfahl einen „Minus 4 Rechner“ ohne das Paket. Wenn ich lese, das die Textverarbeitung auch nur Dokumente mit maximal 99 Zeilen (etwa eineinhalb Seiten Text) bearbeiten konnte, dann wundert mich das auch nicht. Eher das man sich traut so etwas überhaupt auf den Markt zu bringen.

20.12.2019: Bits sparen, Videoprozessor und -controller

Heute wieder ein kleiner Wissenshappen, als Abfallprodukt meiner derzeitigen Beschäftigung mit alten Rechnern.

Was ich in den Achtzigern nicht wusste, war, dass viele Grafikprozessoren der 8 Bit Ära Bits einsparten. Ein 8 Bitter hatte ja mit 64 KByte nicht viel Speicher und selbst mit nur 4 Bits pro Farbe konnte eine ansprechende Grafik dann schon einen größeren Teil des Arbeitsspeichers beanspruchen. Bei meinem CPC war der Grafikspeicher 16 KByte groß, also ein Viertel des Gesamtspeichers, was folgende Modi ermöglichte:

Im Allgemeinen ist der Speicherbedarf berechenbar nach PixelX x PixelY x ld(Farben)/8, wobei ld() der Logarithmus zur Basis 2 ist (1 bei zwei, 2 bei vier, 4 bei 16 Farben).

Viele Grafikprozessoren dieser Zeit trennten aber Bitmap und Farben. Es gab einen "Bitmap"-Speicher, der das monochrome Pixelmuster aufnahm und dessen Größe man mittels PixelY x PixelY/8 berechnen konnte und einen Farbspeicher, wobei aber mehrere Pixel jeweils die gleiche Farbinformation hatten. Üblich als Modi waren:

Konkret hieß dies: in 8 bzw. 64 Bit sind nur zwei Farben erlaubt, aber in den nächsten 8 / 64 Bit wieder eine andere Kombination. Als ich das zum ersten Mal las, dachte ich mir „da hat aber jemand viel Aufwand betrieben, um auch noch das letzte Bit herauszuquetschen“. Aber beim Nachdenken ist die Idee genial. Es geht ja bei der Grafik meist um zwei Anwendungen. Das eine sind Spiele und das Zweite sind irgendwelche Diagramme entweder geschäftliche oder Funktionsplotter. In Spielen hat man oft monochrome Muster oder feste Texturen wie Wände. Innerhalb eines kleinen Bereiches wechseln die Farben kaum. Ähnlich sieht es bei Nutzgrafik aus, egal ob Tortendiagramme. Ballkendiagramme oder Funktionsplotter – wenn sie nicht schon, um die höchste Auflösung für eine Hardcopy zu haben, monochrom sind, dann kommen auch dort in einem kleinen Bereich maximal zwei Farben vor. Probleme sind nur Spielfiguren, die sich bewegen. Der C64 und TMS 9918 hatten Sprites die vom Videoprozessor bewegt wurden, also konnte er auch die korrekte Farbinformation ausgeben. Beim Spectrum ohne diese Fähigkeit, aber mit einer noch gröberen Farbauflösung scheint Pixelsalat, wo Hintergrundpixel dann abrupt ihre Farbe ändern, üblich gewesen sein und auch das Vermeiden dessen ziemlich aufwendig. Der Lohn. Man kann viel Speicher einsparen. Hier mal eine Berechnung für 320 x 200 Pixel und die gängigen Farben (8 oder 32 Farben gehen nicht geradzahlig in ein Byte und erhöhen so den Aufwand beim Schreiben und Auslesen)

Auflösung

Farben

Jeder Punkt farbig

8 Punkte eine Farbe

64 Punkte eine Farbe

320 x 200

2

8 KByte

8 KByte

8 KByte

320 x 200

4

16 KByte

12 KByte

8,5 KByte

320 x 200

16

32 KByte

16 KByte

9 KByte

Der Spareffekt wird um so größer je mehr Farben man einsetzt, mehr als 16 Farben hatten die Heimcomputer nicht, doch wenn man damals schon 256 Farben gehabt hätte, man wäre mit 24 bzw. 10 anstatt 64 KByte ausgekommen. Für einen Computer also durchaus eine Option, vor allem wenn er Hardware animierte Spielfiguren hat, dann fällt das Einsparen von Bits meist nicht mal auf.

Das Einsparen von Bits gab es auch noch später. Beim Amiga nutzte man das RLL-Verfahren, das damals auch Festplattenkontroller nutzten. Anstatt jedes Pixel abzuspeichern, zählte das Grafik-IC, wie viele Pixel in einer Zeile dieselbe Farbe hatten, und speicherte Farbwert und Anzahl ab. Bei den typischen Bildern mit weitestgehend monochromen Flächen spart das enorm viel Speicher ein. Das Verfahren ist Basis des PCX-Bildstandards, das heißt, man kann es heute noch leicht ausprobieren. Nur wenn jemand ein Pixel An-Pixel-Aus Muster hatte, belegte das mehr Speicher als normal. Allerdings klappte das beim Amiga trotz schnellerem 68000 Prozessor nur, weil der Graphic-Prozessor ein spezielles ASIC war, das diese Funktion in Hardware verankert hatte.

Video Display Controller vs. Video Display Processor

Für die Ausgabe des Bildschirminhalts gab es damals drei Methoden:

Doch was sind die Unterschiede zwischen einem Video Display Controller und einem Prozessor?

Ein Video Display Controller ist nur dafür da die Anzeige zum Monitor zu schicken (für eine Ausgabe auf einen Fernseher musste man noch einen PAL-Modulator hinterherschalten). Er verarbeitet sie aber in keiner Weise.

Ein Video Display Processor verwaltet einen Speicherbereich selbst und er kann die Daten auch beeinflussen. In den Achtzigern hatten VDP noch keine Möglichkeit die Grafik selbst zu zeichnen, das musste nach wie vor der Hauptprozessor machen. Aber die populärsten VDP hatten die Fähigkeit Sprites zu definieren. Das waren „Spielfiguren“ meistens maximal etwa 30 x 30 Pixel groß, die vom VDP selbst bewegt wurden. Er übernahm dabei eine wichtige Arbeit, nämlich das Restaurieren des Bildschirminhalts, nachdem ein Sprite einen Bereich überquert hatte, das entlastete den Hauptprozessor und der konnte sogar ein anderes Programm abwickeln und wurde vom VDP über einen Interrupt unterbrochen, wenn zwei Sprites kollidierten oder eines den Bildschirmrand erreichte. Für Spiele Entwickler, die ja oft kleine Figuren hatten, (man denke an Pac-Man oder einen Ball) war das eine tolle Eigenschaft. Die zweite wichtige Eigenschaft wurde weniger genutzt: da der Video Display Prozessor ein eigenes RAM hatte, konnte es unabhängig vom Hauptspeicher sein und belegte so keinen Platz. Bei dem knappen Speicher eines 8 Bitters ein Vorteil. Das hatte aber auch den Nachteil, das nun die Haupt-CPU nicht nur den Zugriff auf den Speicher abstimmen musste (das war auch bei VDC nötig, spezielles schnelles VRAM wurde damals in der Regel nicht verbaut) sondern nur über den VDP auf den Speicher zugreifen konnte, das heißt ihm beim Lesen erst die Adresse mitteilen musste und dann warten, bis der Video Prozessor die Daten ausgelesen hatte. Bei der MSX-Serie war das so, was für deren langsamen Bildaufbau mitverantwortlich war. Beim C128 hatte der VDP ein gemeinsam genutztes RAM, das aber separat vom Hauptspeicher war. Das absolut kurioseste Konzept war, das des Ti 99, der nur Video-RAM hatte und der Hauptprozessor dort seine BASIC-Programme ablegte.

Video Display Controller hatten andere Vorteile. Sie waren oft flexibler, was Grafikmodi betrag. Der Motorola 6845 wurde z.B. in der CPC-Serie verwendet (verschiedene Grafikmodi von 160 x 200 x 16 bis 640 x 200 x 2), der CGA (Textmodi bis 80 x 25, Grafik bis 320 x 200 x 4), Hercules Grafikkarte (nur monochrom bis 720 x 348) wie auch EGA (bis maximal 640 x 350 x 16) und VGA (640 x 480 x 16 aus 256, dort allerdings für mehr Farben von Custom-ICs unterstützt) und konnte bis zu 512 KB RAM adressieren.

Eine 8-Bit-CPU alleine hätte die Grafikausgabe nicht geschafft: Selbst bei einer Grafik mit 320 x 200 Pixeln und 4 Farben (belegt 16 KBytes) hätte sie bei 25 Bildern/s (PAL-Standard) 400 KByte pro Sekunde übertragen müssen – das schafft sie nicht, wenn man bedenkt, dass man jedes Byte zuerst in die CPU laden, dann an einen Ausgabeport schreiben muss, dann den Adresszähler erhöhen und vergleichen muss (Zeilensprung / neues Bild). Gemacht hat dies soweit ich weiß nur die 6502 im VCS2600 System, das daher nur eine geringe Auflösung von 40 Pixeln pro Zeile bot (aber aufgrund des Schreibens „on the fly“ konnte jede Zeile anders aussehen). Bei einer so reduzierten Auflösung ging das noch.

21.12.2019: Mal zu langsam, dann schnell genug, dann wieder zu langsam – der Speicher

Während sich die Technologie bei der CPU und den Logikbausteinen kaum geändert – hat, wenn man von der ersten Phase mal absieht, als noch Röhren eingesetzt wurden – gab es beim Speicher laufende Technologiewechsel und ich bin beim Lesen alter Dokumente auf eine erstaunliche Erkenntnis gestoßen, die ich am Schluss euch nicht vorenthalten darf.

Jeder Computer braucht Speicher. Wenn man die ersten Maschinen mal ausblendet, die meist keinen dezidierten Speicher hatten, sondern die Logik selbst die wenigen Werte speicherte, die in den Gleichungen benötigt wurden, etablierte sich ab Ende der Vierziger Jahre die Trennung von Logik und Speicher nach der von Neumann oder später Harvard Architektur. Beide differieren, doch beide haben einen externen Speicher.

Das Grundproblem, das Speicher hat, ist das er viel mehr Elemente enthalten muss, um Programme und Daten zu halten als die CPU und andere Logikbausteine. Hier ein Vergleich: Eine 8-Bit-CPU war je nach Typ aus zwischen 4.000 und 8.000 Transistoren aufgebaut. Ihr 64-K-Speicher war dagegen 524.000 Bits groß. Bei der 16 Bit Generation waren es zwischen 29.000 und 134.000 Transistoren in der CPU bei 8 Millionen bis 128 Millionen Bits für den Speicher. Heute haben die größten CPU etwa 2 Milliarden Transistoren, doch 64 GByte Speicher, die einen Bruchteil davon kosten, umfasst 512 Milliarden Bits.

Kurzum: Speicher musste pro Bit vor allem billig sein. Daher hat man schon immer versucht, für den Speicher eine andere Technologie einzusetzen als für die CPU. Den Anfang machte die Speicherung als akustisches Signal. Die ersten Speicher in der Univac bestanden aus mit Quecksilber gefüllten Röhren. Vorne wo die Bits geschrieben wurden, gab es einen piezoelektrischen Kristall, das ist ein Kristall, der bei Anlegen eines elektrischen Signals einen Druck aufbaut und umgekehrt, wenn er unter Druck gerät, ein elektrisches Signal abgibt. Schrieb man ein Bit so erzeugte das im Quecksilber eine kleine Welle die nach hinten lief. Dort saß ein zweiter Kristall, der, wenn die Welle ankam, ein Signal abgab das verstärkt und (das Bit musste ja gespeichert werden) wieder vorne eingespeist wurde. Quecksilber wurde genommen, weil das die dichteste Flüssigkeit ist die es gibt und man so möglichst viele Wellen pro Röhre am laufen lassen kann, sprich möglichst viele Bits speichern konnte. Jede Röhre dieses „Verzögerungsspeichers“ konnte beim Univac 7 Dezimalziffern aufnehmen.

Die Quecksilberröhren sind unhandlich und erfordern ziemlich viel Aufwand für die Wartung und Versorgung mit Quecksilber, das zudem noch giftig ist. So hatten sie nur eine kurze Einsatzdauer. Sie wurden Ende der Vierziger Jahre vom Trommelspeicher abgelöst. Das Grundprinzip des Verzögerungsspeichers wurde aber nochmals in den Sechziger bei magnetischen Verzögerungsspeichern aufgegriffen: Drähte aus bestimmten Legierungen leiten Magnetfelder wenn sie unter Strom gesetzt werden langsam durch den Draht. So konnte man auf einem Draht mehrere Bits speichern. Die man hinten auslaß und vorne wieder einspeiste. Auf der Erde in Rechnern selten eingesetzt fand sich etliche Anwendungen in Satelliten und Raumfahrzeugen für diese Technologie. Die Verzögerungsröhren auf Basis von Quecksilber starben dagegen Anfang der Fünfziger Jahre aus.

Der Trommelspeicher speichert Information magnetisch und hat dasselbe Prinzip wie eine Festplatte, nur wird die Information nicht auf einer platten Scheibe, sondern der Außenseite eines Zylinders geschrieben. Dort sitzen viele Schreib-/Lese Kopfe je einer pro Spur (ein Kreisumfang in einer bestimmten Höhe) und die Trommel rotiert. Das klingt gegenüber der später erfundenen Festplatte nach viel zusätzlichem Gewicht und Volumen, hatte aber den Vorteil das alle spuren gleich lang waren, damit auch die Bereiche die magnetisiert wurden. Bei der Festplatte muss sich (zumindest bei gleicher Sektoranzahl pro Spur) sich das nach der innersten Spur richten. Weiterer Vorteil: Die Fliehkräfte sind überall gleich stark, so waren höhere Rotationsgeschwindigkeiten möglich. Nun dauert es aber selbst bei 12.500 Umdrehungen – so schnell rotierte die Trommel beim IBM 650 Rechner – im Mittel 2,5 ms, bis ein Wert ausgelesen und geschrieben werden konnte, was selbst für die damaligen Computer der Fünfziger und Sechziger Jahre zu langsam war. Bei der IBM 650 wurde daher die Architektur des Rechners auf diesen Speicher ausgelegt. Heute haben Computer einen Befehlszähler, der automatisch nach jedem Befehl erhöht wird und dorthin zeigt, wo der nächste Befehl im Speicher ist, damit dieser ausgelesen werden kann. Bei der IBM 650 hatten Befehle im Opcode die Adresse des nächsten Befehls. War die Ausführungszeit sowie die Zeit für das Lesen von der Trommel bekannt so konnte man den nächsten Befehl dort platzieren, wo der Schreiblesekopf sein würde, wenn der Befehl ausgeführt ist. Das macht, weil so der Platz fragmentiert wird, das Programmieren aber nicht einfacher.

Wenn man schon die Information magnetisch speichert, dann auch so das man ohne Verzögerung auf sie zugreifen kann – das führte dazu das man kleine Eisenringe oder Ringe aus einer magnetisierbaren Legierung auf Draht aufzog. In einer Matrix aus Drähten reichte der Strom an einem Kreuzungspunkt aus die Magnetisierung zu ändern, woanders nicht. Auslesen konnte man den Speicher über den Impuls, den er auf einer dritten stromfreien Leseleitung erzeugte. Magnetkernspeicher waren über die ganzen Sechziger Jahre bis Mitte der Siebziger die dominierende Speicherform. Anfangs noch sehr groß, wurden die Ringe immer kleiner. Damit sank aber auch die Zeit, die man brauchte, um die Magnetisierung zu ändern und sie wurden schneller. Mit der Verkleinerung stieg auch die Dichte, die man pro Volumen unterbringen konnte und bald entwickelte man Maschinen, die die Ringe auffädeln konnten, anstatt das man dies manuell machen musste, sodass die Kosten sanken. Die ersten Ringe hatten einen Durchmesser von 2,5 mm, die Letzten einen von 0,33 mm. Die Kosten sanken von 1 Dollar auf 0,33 ct pro Bit. Die Zugriffszeit sank von 20 Mikrosekunden auf 0,3 Mikrosekunden. Obgleich Ringkernspeicher damit immer noch langsamer als die CPUs waren, waren sie um Größenordnung schneller als vorherige Speicher, hatten eine hohe Dichte, was die Rechner kleiner machte. Daneben gab es einen praktischen Vorteil. Da die Information magnetisch gespeichert war, ging sie nicht verloren, wenn der Computer ausgeschaltet wurde. Man konnte, selbst wenn der Computer bei einem Fehler neu gestartet werden musste, den Hauptspeicher auslesen und in dem „Core Memory Dump“ dann nach der Fehlerursache suchen. Zumindest dieser Begriff hat sich viel länger gehalten als der Ringkernspeicher selbst.

Zu Beginn der Sechziger wurden zwar integrierte Schaltungen eingeführt, aber das änderte nichts an der Dominanz der Ringkernspeicher. Nun wurden zwar die CPUs nicht mehr aus Transistoren, sondern IC gefertigt, aber der Ringkernspeicher blieb. Der Grund war die niedrige Informationsdichte in den Schaltungen und ihre Kosten. Man benötigt ein Flip-Flop, ein Schaltelement das dauernd zwischen zwei Zuständen hin und her springt, um ein Bit zu speichern. Das benötigt aber mindestens 4 Transistoren. Eine Schaltung hatte in den Sechzigern aber nur wenige Transistoren und war teuer. So nahm man Schaltungen nur für das Speichern von Daten, auf die man besonders schnell zugreifen musste, Werte in Registern und als Caches einzogen, auch die Caches. Das änderte sich Ende der Sechziger und man kann es sehr gut verdeutlichen an den ersten drei Chips die Intel herausbrachte. Intel wurde als Zulieferer für Schaltungen gegründet. Der erste Speicherbaustein war ein 64-Bit-Baustein in Bipolartechnik, nach der damals Schaltungen entwickelt wurden. Der zweite Chip setzte die damals noch neue Metalloxid-Technik ein (MOS) ein. Transtoren in dieser Technik brauchen viel geringere Stromstärken zum Schalten und sind viel kleiner – man brachte auf demselben Platz nun schon 256 anstatt 64 Bit unter. Schließlich erfand man dort das dynamische RAM – anstatt ein Bit in einer Schaltung aus Flip-Flops zu speichern dotierte man das Silizium in der Tiefe sehr stark und schuf so einen Kondensator, der durch einen Transistor darüber an dem Entladen gehindert wurde. Das benötigte nur einen Transistor anstatt vier pro Bit und viel weniger Aufwand für die Verschaltung und die Kosten sanken: Intels erster DRAM Baustein speicherte 1024 Bit, das 16-Fache des nur ein Jahr vorher vorgestellten 64 Bit Bipolarspeichers und er kostete nur ein Sechstel – innerhalb eines Jahres war der Preis pro Bit um den Faktor 100 von 1 Dollar auf 1 ct pro Bit gefallen.

Mit der Einführung dieses dynamischen RAMs (so genannt, weil die "Miniaturkondensatoren" sich ohne laufendes Auffrischen der Ladung von alleine entladen) begann der Siegeszug von RAM-Bausteinen, genauer gesagt von DRAM, in der Industrie. Heute besteht fast der gesamte Speicher aus DRAM. Den Speicher aus Flip-Flops gibt es immer noch und zwar als Cache, Zwischenspeicher. Er kann, da er aus derselben Technologie wie die Logik besteht genauso schnell wie diese sein. So nutzte man schon früher den inzwischen statischen Speicher (SRAM) genannten Speicher aus Flip-Flops für Register und eben Caches. Der Grund war auch das man bald entdeckte, dass man DRAM nur langsam in der Zugriffszeit steigern konnte. Ein Kondensator entlädt sich nicht sofort und auch ein Aufladen braucht Zeit, das ist physikalisch so vorgegeben. In der Folge sank die Zugriffszeit nur langsam. Texas Instruments setzte bei ihrem TMS 9900 Prozessor darauf, das DRAM mit dem Anstieg der Taktfrequenzen Schritt halten konnte und sparten auf ihren Prozessor Register ein, die sie ins RAM auslagerten. Als das nicht passierte, hatten sie bei ihrem Ti 99/4 Heimcomputer ein Problem. Aber auch andere PCs hatten das Problem. Solange die CPU nur wenig schneller als das DRAM war, schob man einen Wartetakt ein – das bremste die CPU zwar aus, doch da Speichertransfers nur einen Teil der Ausführungszeit einer CPU ausmachen nicht sehr. Bei 10 MHz Takt eines 80286 machte 1 Wartetakt den Rechner um etwa 3 % langsamer. Doch die Taktfrequenzen steigen weiter an und beim Intel 80386 reichten Wartezyklen alleine nicht mehr aus. Er bekam die Logik für die Ansteuerung eines Caches integriert. Der Cache war noch extern, aber er bekam schon bevor die CPU Daten vom Speicher anforderte die Informationen dafür, damit er falls die Daten im Cache sind, sie bereitstellen kann. Der Cache enthält im Prinzip eine Kopie von Speicherinhalten, organisiert in kleinen Einheiten den Cachelines, die im im Idealfall den Zugriff auf den langsamen Arbeitsspeicher meistens unnötig machen. Er besteht aus schnellem SRAM. Ab dem 486 wurde der Cache in die CPU integriert und extern gab es einen zweiten, größeren „Level 2“ Cache. Heute geht das bis Level 3 den sich mehrere Kerne einer CPU teilen. Beim RAM änderte sich bis Mitte der Neunziger nichts. Da nun viele Rechner schon Caches hatten und eine Cacheline immer 32 Bytes hintereinander aus dem Speicher holte, kam man auf einen Trick: An der Zugriffszeit auf das erste Datenbyte konnte man nichts ändern, aber am Datentransfer. Vorher holte der Prozessor jedes Byte einzeln ab, wobei er erst die Adresse in zwei Schritten (Reihe und Spalte) übermitteln musste, dann signalisieren, dass er bereit ist die Daten entgegenzunehmen, warten, bis der Speicherbaustein sagte „Die Daten liegen auf dem Bus“ und dann wieder das Signal für die Bereitschaft zurücksetzen. Der Speicherbaustein benötigt dann nochmals eine gewisse Zeit um die Information im Chip aufzufrischen, die durch das Lesen verloren ging. So ein Zyklus dauerte typisch dreimal so lange wie die Zugriffszeit, also die Zeit die verging von der Anforderung, bis die Daten auf dem Bus lagen. Bei synchronem DRAM (SDRAM) liest der Speicher dagegen nach dem ersten Byte automatisch aus der nächsten Zelle das nächste Byte aus und legt bei jedem Takt ein Byte auf den Bus, solange bis eine Cacheline voll ist. Dafür muss er mit dem Takt des Prozessors synchronisiert sein, denn dieser muss automatisch bei jedem Takt ein Byte abholen. (In der Praxis sind DRAM bitweise oder 4-Bit weise organisiert, doch das Prinzip ist das gleiche). Als Folge fällt die Zugriffszeit nur einmal an und die Datenrate für die folgenden Bytes ist viel höher. Da alle Daten sowieso erst im Cache landen, ist diese Technik ideal für die Architektur eines Caches. Daran hat sich bis heute nichts geändert. DDR RAM ist SDRAM der bei jedem Takt zwei Bytes (DDR = Double Data Rate) transferiert, und zwar bei jedem Flankenwechsel.

Was sich nicht geändert hat ist die Zugriffszeit. Beim Lesen in alten Texten bin ich auch auf das Datenblatt des 4164 RAMs gestolpert. Das ist ein DRAM Speicher (Vorziffer „4“, „6“ für CMOS, „2“ für SRAM), in 1 Bit Organisation „1“ an der zweiten Ziffer und 64 Kbit Kapazität (letzte Ziffern). Das DRAM erschien 1979 und wird – wie ich bei ebay rausfand immer noch in China produziert. Bei DDR-RAM haben sich zahlreiche Parameter geändert, die beiden früher wichtigsten, nämlich die Zugriffszeit und Zykluszeit werden heute gar nicht mehr angegeben. Aber zumindest die „Kontaktaufnahme“ ist gleich geblieben: RAM Chip selektieren, Reihenadresse übergeben, Spaltenadresse übergeben, Lese oder Schreibsignal setzen. Und ein Zeitparameter, die Trcd (Zeit zwischen Setzen der Reihen- und Soldatenadresse) gibt es heute noch. Netterweise erschien in der letzten ct dann noch ein Artikel über die Optimierung der einzelnen Zeitparameter bei DDR-RAM mit abgedruckten Werten. 3000 MHz DDR4 RAM, also das gerade schnellste auf dem Markt hat eine Trcd von 8,9 ns. Das 4164 hatte in der langsamsten Version eine Trcd von 35 bis 65 ns (200 ns Zugriffszeit), bei 120 ns waren es noch 25 bis 40 ns. Selbst wenn ich also die langsamste Version nehme, dann ist heutiger DRAM Speicher in diesem Zeitparameter nur um den Faktor 4-7 schneller geworden und das in 40 Jahren! Dagegen sind selbst Drucker, die aufgrund der Mechanik nicht so beschleunigt werden, können um einiges leistungsfähiger geworden: 1979 schafften die schnellsten Drucker 80 Zeichen/s, also eine Seite in rund 1 Minute, heute kostet selbst ein Multifiktionsgerät mit 30 Seiten/Minute weniger als damals ein Nadeldrucker. Während der Zugriff nur wenig schneller wurde, stieg die Kapazität von RAM um den Faktor 1 Million in dieser Zeit. Heute sind 64 GBit Stand der Technik.

Die Langsamkeit von RAM ohne Cache Einfluss kann man auch ausprobieren. In diesem Zip Archiv habe ich ein kleines Programm in Pascal (kompiliert mit Lazarus) gepackt. Das Prinzip: Es legt im Array ein großes Feld mit Zufallszahlen an. Einmal wird das Feld linear abgetastet und einmal wird die darin befindliche Zufallszahl als neuer Index genutzt. Damit ist, wenn das Feld groß genug ist, es meist nicht so, das ein Datenwert im Cache ist. Man kann selbst damit experimentieren. Das Feld sollte so groß sein, das es noch in den Arbeitsspeicher passt (vorher im Taskmanager nachsehen, wie viel frei ist) und die Durchläufe sollten so lange sein, das man vernünftige Zeitmessungen machen kann. Bei meinem 16-GB-System habe ich mit 4000 (MByte) und 200 (Millionen Durchläufe) gute Erfahrungen gemacht. Der zweite, längere Lauf dauert dann etwa eine Minute und ist um den Faktor 94 als der Zugriff auf den Cache. Die Transferraten liegen dann bei meinem System (Haswell, DDR3 RAM 1333 MHz) bei maximal 2800 MByte/s.

Eine Alternative ist aber kaum in Sicht. In den letzten Jahrzehnten gab es etliche Kandidaten für die Ablösung von DRAM. Nun hat es NRAM wenigstens in die Fertigung geschafft. NRAM hat die Schaltgeschwindigkeit von DRAM, eine ähnliche Kapazität pro Baustein (aber bei größerer Fläche) und ist persistent wie Flash RAM. Er könnte bei Servern die heute schon DDR RAM und Flash RAM kombinieren um im Falle eines Stromausfalls die Daten schnell in den Flash Speicher zu kopieren und bei Wiederherstellung wieder an dieser Stelle weiterzuarbeiten ersetzen. Für den Ersatz von Flash RAM ist die Kapazität dagegen einfach zu klein, außer vielleicht für mobile Geräte mit wenig Speicher die aber sehr schnell sein müssen.

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99