Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 636: 22.11.2021 - 7.12.2021

22.11.2021: Kompatibilität

Ich habe mich im Blog etwas rar gemacht, das hat aber seinen Grund, ich habe drei neue Artikel über Computer fertiggestellt, einen Doppelartikel über die drei ersten „echten“ PC, den Apple II, Commodore PET, Tandy TRS-80 und einen über VisiCalc. Inspiriert wurde ich wie jedes Jahr durch die ct’ Retroausgabe, auch wenn die immer schlechter wird, weil man merkt, das nun Leute Redakteure sind, die die Zeit nicht miterlebt haben und zusammenschreiben was sie im Netz so finden. Aber sie erinnert mich an die Zeit und inspiriert. Ich habe als ich für den NeXT Computer recherchiert habe, auch festgestellt, das die Wikipedia durchaus nicht immer eine gute Informationsquelle ist. Über sehr populäre Computer wie den Apple II oder C64 steht viel drin, aber über seltenere eher wenig. Da ich nicht schreiben will, was man woanders findet, habe ich in den letzten Jahren relativ wenig über Computer gemacht. Ich denke, ich ändere das nun und zwar mit dem Fokus auf Verlierer, die sonst gerne ignoriert wird. Und einer der Verlierer und nächsten Kandidaten für einen Artikel ist der Apple III.

Ein Grund für die Misere des Apple III ist eben die Kompatibilität. Diesen Begriff hörte ich auch zuerst im Zusammenhang mit Computern, nämlich den berühmt-berüchtigten „IBM-Kompatiblen“. Kompatibilität ist Fluch und Segen zugleich. Heute da ja fast alles „kompatibel“ ist, sogar über Hardwaregrenzen hinweg – man kann z.B. an einen Raspberry Pi USB-Zubehör für den PC anschließen, ohne Treiber installieren zu müssen, ist der Begriff weitestgehend bedeutungslos. Man muss sich in der Regel bei einer neuen Anschaffung nicht drum kümmern, ob die mit der alten Hardware noch läuft oder alte Software noch auf dem neuen Rechner läuft, außer es gibt die seltenen Brüche, die Microsoft bisher sehr spät durchführte – das Subsystem für Windows 3.x und DOS Programme flog z. B. erst 2005 mit Windows Vista raus, als solche Programme praktisch keine Marktbedeutung mehr hatten. „Bisher“ weil sie bei Windows 11 nicht so vorgegangen sind. Das läuft nur auf maximal drei Jahre alten Rechnern. Mein für seine Zeit recht gut ausgestatteter PC ist z.B. nicht dabei.

Früher war das anders. Da bestand die Änderung in einem neuen PC nicht nur in einem schnelleren Prozessor oder mehr Kernen. Vor allem gab es bei vielen Computern von der Hardware diktierte feste Grenzen. Da ist die 64 KByte Grenze von 8-Bittern, aber auch die 640 KByte Grenze für IBM-Kompatible PC.

Ich will mal einige Rechner vorstellen, wo man dies schlecht gelöst hat. Fangen wir mit dem Apple III an. Er war DAS strategische Nachfolgeprodukt für Apple nach dem Apple II. Anders als beim Apple II den Wozniak fast alleine konstruierte saßen am Apple III eine ganze Mannschaft und es gab ein großes Werbebudget. Der Apple III scheiterte aus zwei Gründen. Das eine waren Hardwareprobleme am Anfang, das zweite war die mangelnde Kompatibilität. Die Hardwareprobleme äußerten sich darin, dass viele Rechner nach kurzer Zeit abstürzten und teilweise danach gar nicht mehr booteten. Der Grund dafür war, das von Steve Jobs designte Gehäuse. Es war für die vielen verbauten Chips zu klein. Damit hatten die Bestückungsautomaten anfangs Probleme und die Chips saßen so nicht richtig oder locker. Diese Probleme hatte man nach einem Jahre gelöst und schon eine zweite Version, den Apple III+ nach, wohl auch um potenzielle Käufer zu versichern „Ja der Apple III hatte Probleme, aber die haben wir gelöst und der Apple III+ hat sie nicht“.

Das Hauptproblem des Apple II und das ist das Kernproblem jedes „Kompatiblen“ ist der Vorgänger. Der Apple II war seiner Zeit voraus. Er bot farbige Grafik, als die Konkurrenz noch Schwarz-Weiß Textanzeige bot. Er war einfach durch Steckkarten erweiterbar – ohne diese hätte der Apple II sicher das Schicksal des Commodore PET und Tandy TRS-80 geteilt. Denn der Apple II hatte auch Nachteile. Aus unerfindlichen Gründen lies Wozniak die Kleinbuchstaben weg. Die Grafik war auf Eigenheiten des NTSC Systems ausgelegt und funktionierte nur an einem US-Fernseher, er bot keinen Ton. Mit Zusatzkarten konnte man das alles nachrüsten. So konnte man später durch eine Karte Diskettenlaufwerke anschließen. Die 80 Zeichenkarte bot nicht nur 80 anstatt 40 Zeichen pro Zeile, sondern auch Kleinbuchstaben und die 16 K Karte erweiterte den Speicher von 48 auf 64 KByte. 16 K mehr Speicher erscheinen wenig, doch man darf nicht vergessen, das das Anwendungsprogramm und Betriebssystem im Speicher lagen. Ich vergleiche hier mal mit CP/M. Da war bei einem textbasierten System nach Start von CP/M noch typisch 54 bis 56 KByte frei. Anwendungsprogramme wie Wordstar, Turbo Pascal oder DBase waren im Kern 30 bis 35 KByte groß, das lies dann noch 19 bis 24 KByte für die eigentlichen Daten – mit 16 KByte weniger wären es aber nur noch 3 bzw. 8 KByte.

Die Erweiterbarkeit bescherte dem Apple II ein langes Leben. Folgende Apple II integrierten die häufigsten Karten und er wurde so bis 1993 gebaut, länger als jeder andere Mikrocomputer den ich kenne.

Wie macht man nun einen Nachfolger? Eine Möglichkeit ist, das man sich gar nicht um die Kompatibilität schert. Dann muss der Nachfolger um einiges besser als der Vorgänger sein. Das war wohl so geplant beim Apple Macintosh – schnellere CPU, grafische Oberfläche. Die zweite Möglichkeit ist es den Rechner kompatibel zu machen. Die Crux: Er muss dann 100 Prozent kompatibel sein. Beim Apple III hatte man dies vor. Der Apple III hatte den gleichen Prozessor wie der Apple II, aber doppelt so schnell getaktet. Der Speicher war mit 128 KByte auch größer und er bot weitere hochauflösende Grafikmodi. Das Diskettenlaufwerk entsprach dem im Apple II.

Der Apple III war ein Rechner für Geschäftsleute. Er kostete bei Einführung 4.340 Dollar. Ein Apple II für den Geschäftseinsatz (Apple II+, 1 Disklaufwerk mit Controller, 16 K Language Card, 80 Zeichenkarte, Monitor) 2.417 Dollar. Der Apple III war also um 2.000 Dollar teurer. Stephen Wozniak beschrieb die Erwartungshaltung eines Apple III Käufers – er kauft einen Apple II mit Zukunftsoption – also seine Software vom Apple II läuft weiterhin und er kann dann neue Software einsetzen, welche die neuen Möglichkeiten ausnutzt. Nur genau das bekam er NICHT. Der Apple III war im Apple II Modus ein Apple II mit 48 KByte Arbeitsspeicher. Er war weder schneller, was für Business Software sehr erstrebenswert gewesen wäre, noch hatte er die beiden für den geschäftlichen Einsatz hinzugekauften Karten – nämlich die 80 Zeichen Karte und 16 KByte RAM Erweiterung integriert, obwohl er beide Features im Apple III Modus bot. So verwundert es nicht das er zum Flop wurde.

Eine Parallele finden wir im C128. Nachdem Commodore mit dem C264 / Plus4 grandios scheiterte – das Gerät war wie der C64 ein Rechner mit 64 KByte Arbeitsspeicher, dafür aber schneller, und mit einem BASIC das die Fähigkeiten auch voll unterstützte, aber inkompatibel zum C64 legte man den C128 auf. Der bot nun einen C64 Modus, in dem er voll kompatibel war. Im neuen C128 Modus war er schneller, bot mehr RAM und ein komfortables BASIC. Nur konnte er im C64 Modus auch nicht mehr als der C64, also keine bessere Grafik er war nicht schneller. Kurz: wie der Apple III benötigte er für den 128K Modus komplett neue Software. Die Crux war das der C64 als Spielkiste gekauft wurde. Dank des miserablen Basics kauften Leute, die wirklich Programmieren lernen wollten, andere Rechner. Das bessere Basic des C128 war damit kein großes Verkaufsargument. Nur für Spiele reichte aber das deutlich billigere Original. Immerhin war der C128 hier voll kompatibel, anders als der Apple III oder Plus/4. So erreichte er zwar nicht die Verkaufszahlen des C64, aber es wurden trotzdem etliche davon verkauft.

Der Begriff Kompatibilität hatte ich ja schon in Zusammenhang mit den IBM PC kompatiblen erwähnt. Gerade hier sieht man auch den Fluch. Es erschienen fast zeitgleich mit dem IBM PC Rechner die man damals „MS-DOS Kompatible“ nannte. Das waren Rechner mit dem 8086/88 Prozessor, aber einer anderen internen Architektur, die unter MS-DOS liefen, vergleichbar den vielen Rechnern die unter CP/M liefen und nur den Prozessor gemeinsam hatten. Nennenswerte Geräte sind der TI Rainbow, der Victor Sirius 1, der Tandy TRS-1000. Alle waren besser als der IBM PC. Der TI war ein Doppelprozessorsystem, konnte dank zusätzlichem Z80 auch CP/M Software nutzen. Tandy und Sirius 1 boten bessere Grafik und speicherten mehr auf die Floppies. Alle diese Rechner verschwanden recht schnell von dem Markt.

Warum? IBM hatte den 8088 mit 4,77 MHz gewählt. Primär um Kosten zu sparen. Verfügbar war auch der 8086 mit 8 MHz, der etwa doppelt so schnell war. Die Langsamkeit führte dazu, dass Programmierer Abkürzungen wählten. Normalerweise bemüht man für alle Dinge, die das Betriebssystem erledigen muss wie Ein/Ausgabe auf Bildschirm, Drucker, Disk das Betriebssystem, das dann das BIOS beauftragt und das spricht dann die Hardware direkt an. Das Betriebssystem ist die genormte Schnittstelle, alles andere ist dann herstellerspezifische implementiert. Wenn nun ein Programm direkt die BIOS Routinen aufrief, dann scheiterte das, wenn diese in einem anderen Rechner woanders lagen oder völlig anders aufgebaut waren. Ja beim Bildschirm ging, das so weit das man nicht mal das BIOS bemühte, sondern direkt in den Speicher schrieb. Das musste dann bei anderen Grafikstandards scheitern. Die wirklich populären Programme wie Lotos 1-2-3 arbeiteten aber genau so.

Die Folge waren das nun nur noch „IBM Kompatible“ erschienen, ja das ging soweit, das viele Firmen nicht mal wagten einen schnelleren Prozessor einzusetzen. Der Fluch war, das selbst IBM nicht mehr von dem Standard wegkam. Als der IBM PC-AT erschien war er nur ein schneller IBM-PC. Das für den IBM PC schon schlechte Bussystem wurde nur um einen weiteren Stecker erweitert, der Rechner kam mit 1 MByte RAM, doch DOS nutzte nur 640 KByte – das sollte bis zum Ende der DOS Zeit, als Rechner dann 4 oder 8 MB RAM hatten auch so bleiben. Lediglich die Grafik, die auf einer Steckkarte saß, konnte man erweitern. Mit dem 80386 setzte Compaq dann einfach noch einen Stecker zu den beiden vom AT auf dem Motherboard hinzu. Es bedürfte bis Mitte der Neunziger Jahre als Intel zusammen mit anderen Firmen endlich neue Standards für Bussysteme und Schnittstellen einführte und auch Microsoft brauchte rund 20 Jahre um von Windows 1 (16 Bit System) zu Windows XP (32 Bit System) zu kommen, obwohl der Prozessor schon 15 Jahre früher erschien.

IBM selbst hat zweimal nicht auf die Kompatibilität geachtet. Das eine war der IBM PC junior. Gedacht als Heimcomputer war er schlicht zu teuer, aber anders als der IBM PC kaum erweiterbar. Mit dem Personal System/2 führte IBM neue Schnittstellen ein, eine neues Bussystem, neue Schnittstellen für Tastatur und Maus und den VGA-Standard. Das Bussystem war aber geschützt, und anstatt das Firmen Lizenzen kauften, produzierten sie lieber die Karten für das alte Bussystem auch wenn es veraltet war. Beide Systeme stampfte IBM nach weniger als zwei Jahren wieder ein.

Es wären noch ein paar Beispiele zu nennen, aber ich will es dabei belassen. Heute ist das kein Problem mehr. Dank modularer Bauweise kann man ausbauen, was veraltet ist. Ich könnte meinen PC durch Austausch des Motherboards Windows 11 tauglich machen. Überhaupt gibt es dort die meisten Änderungen, denn während Schnittstellen wie SATA oder USB abwärtskompatibel sind gibt es alle paar Jahre einen neuen Prozessorsockel und das alte RAM passt auch nicht mehr.

Aber eigentlich hat man sich ja nicht an einen bestimmten Prozessor gewöhnt, sondern an Software und die ist heute beweglicher den je. Apple hat in ihrer Geschichte viermal den Prozessor beim Macintosh gewechselt: Es fing mit der MC68000 Serie an, dann kam ab Mitte der Neunziger die PowerPC Architektur, die dann 10 Jahre später von x86-ISA abgelöst wurde und seit letztem Jahr setzt Apple auf ARM. Da die Betriebssysteme in Hochsprachen programmiert werden, geht das problemlos und für alte Binaries muss man eben emulieren, auch wenn das dann ziemlich langsam wird. Aber die Firmen arbeiten ja auch mit Hochsprachen und können mit relativ wenig Aufwand dann ein Binary für den neuen Prozessortyp erstellen. Das wesentliche ist das die API die gleiche bleibt.

Emulation oder heute besser als „Virtualisierung“ tituliert ist auch das Mittel der Wahl, wenn die Software wirklich alt ist.

23.11.2021: Salyut 7

Ich habe mich übrigens entschlossen einen Rechner mal selbst zusammenzubauen, also richtig, nicht nur Motherboard und Komponenten zusammenzustecken, sondern wirklich die Schaltkreise einlöten. Da ich nicht handwerklich geschickt bin, war das auch das was mich lange Zeit vom Kauf abgehalten hat. Der Rechner ist ein Retro-Computer genauer gesagt ein Z180 PC mit CP/M. Dank der Z180 mit integrierten Schnittstellen sind das nur fünf IC, die Z180 CPU, ein RAM ein ROM und ein Register und ein Multiplexer für das Bankselekt. Es ist, wenn man es genau nimmt auch kein kompletter PC, denn alle Schnittstellen, die man so erwartet fehlen, stattdessen wird er über USB an den „normalen“ PC angeschlossen, der dann als Terminal dient.

Gestern bin ich in der ARD Mediathek auf den Film "Salyut 7" gestoßen. Bei der Wikipedia werden sehr positive Kritiken angegeben. Ich kann das nicht teilen. Die Dramaturgie ist völlig übertrieben, stellenweise kommt es mir vor wie eine Kopie von "Apollo 13" mit Tom Hanks, nur wesentlich schlechter. Der Film ist auch total unlogisch., Nur bei Beispiel. Am Schluss bekommen sie es hin den Sonnensensor abzuschlagen und die Station erwacht mit einem Schlag - vorher hatte es aber einen Brand gegeben und die station war voller Eis - das hat offensichtlich überhaupt keine auswirken auch nicht das die Astronauten zu wenig Sauerstoff haben um auch nur zur erde zurückzukehren - das Problem scheint nun auch plötzlich nicht mehr zu existieren obwohl es mit dem Strom für die Station ja gar nichts zu tun hat. Von den physikalisch und technsich unmöglichn Dingen will ich gar nicht mal reden.

Was meint ihr Trash oder sehenswert?

Hier der Link zur Mediathek

29.11.2021: Genie, Naivling oder Scherzbold?

Ich habe gerade einen weiteren Artikel über den Apple I online gestellt, nachdem ich schon einen über den Apple III geschrieben habe. Nun will ich mich erst mal wieder den Raumsonden widmen und am Lucy Artikel weiterarbeiten und dann käme noch die Raumsonde DART dran, die auch letzte Woche startete. Zumindest bei den Raumsonden, über die es noch einigermaßen Informationen gibt, will ich die Website noch up to date halten, bei Raketen habe ich dies angesichts Unzähliger Start-Ups mit immer derselben Geheimniskrämerei schon aufgegeben.

Für die Artikel habe ich aber wieder die Biografie von Stephen Gary Wozniak, genannt „Woz“ erneut gelesen, das ist nicht das erste Mal. Jedes Mal stellt sich mir eine Frage: nämlich wie jemand so seine Autobiographie schreiben (lassen) kann.

Es sind drei Dinge die mir an dem Buch auffallen und die man auch in den Amazon Rezensionen kritisiert findet. Das allererste ist der Schreibstil. Es ist eine Ich-Perspektive, das ist klar bei einer Autobiographie, aber es ist komisch geschrieben, gar nicht so wie man ein Buch schreibt. Mehrere Rezensenten meinten, die Coautor-in habe wohl Interviews geführt oder „Woz“ einfach reden lassen und das so 1:1 abgetippt. Das trifft den Stil wohl am besten. Ich bin ja sprachlich auch nicht so gut und mit der Grammatik stehe ich auch ein bisschen auf Kriegsfuß und daher nachsichtiger, aber selbst ich würde nie so ein Buch über mich genehmigen.

Das zweite, was mir auffällt, ist das er in vielen Dingen ziemlich naiv vorkommt. Das geht los über seine Auslassungen über die „Lotterie“ ob man zum Vietnamkrieg eingezogen wird (oder nicht) bis zu einem Festival wo er Millionenverluste macht, weil er nicht verhindern kann, dass Leute ohne Bezahlung kommen (ja wie können die denn …). Natürlich muss ein scharfer Verstand, der mit Technik und Physik vertraut ist nicht unbedingt mit der (Un)Logik von Politik, Wirtschaft oder dem Verhalten von Menschen zurechtkommen. Aber über Jahre hinweg nicht ein bisschen Misstrauen aufzubauen, erscheint mir doch sehr unwahrscheinlich. Auch was er über viele Dinge in seinem frühen Leben schreibt, zeichnet ihn nicht gerade als Jemand, der viel nachdenkt.

Was den meisten Rezensenten am übelsten aufstößt, ist die Selbstbeweihräucherung. Klar er ist besser als alle anderen. Er hat den PC erfunden, er hat schon mit 13 einen Computer entwickelt, so geht das durch das ganze Buch. Das stimmt natürlich nicht. So hat er, obwohl er das mehrmals schreibt, mit dem Apple I nicht den ersten PC erfunden, der an einen Fernseher angeschlossen werden kann. Das ging zwar mit dem Apple I, aber verkauft wurde nur die nackte Platine, ohne Netzteil, Tastatur, Fernseher. Wenig später erscheint der Sol, der aber genau das war. Schlussendlich sieht man es auch den Verkaufszahlen – maximal 200 Apple I wurden verkauft, dagegen 12.000 Sols. Er betont seine Verdienste zwar auch immer in Interviews von denen ich schon einige gesehen habe, aber nicht so aufdringlich wie im Buch.

Gerade in dem Kontext Apple I und Apple III wurde mir klar, das Wozniaks „Genie“ langfristig nicht so toll für Apple war, was auch erklärt, dass er nach 1978 praktisch nichts mehr in dem Unternehmen bewegt hat.

Wozniak betont in dem Buch dauernd, das seine Maxime ist bei einem Design so wenige Chips wie nur möglich zu verwenden. An und für sich eine gute Herangehensweise die auch Geld spart. Das Problem ist nur zu erkennen, wann man mit dem Sparen von Chips auch die Leistung begrenzt.

Der Apple I war im Prinzip die Erweiterung eines Terminals, das Woz schon gebaut hatte, um einen Mikroprozessor mit Speicher. Dagegen schreibt er, habe es im Apple II so viele Verbesserungen gegeben, das er auf diesen ganz stolz wäre. Nur hat Wozniak aber einiges vom Apple I übernommen, was den Apple II dann auch beschränkte. So bekam er es beim Apple I nicht fertig den Interruptbetrieb des 6502 zu realisieren (eine der wenigen selbstkritischen Momente) und beim Apple II hat er es gar nicht erst probiert. Programme mussten im Polling Modus dauernd die Tastatur abfragen. Wie der Apple I gibt der Apple II keine Kleinbuchstaben aus – ein K.O.-Kriterium für Textverarbeitung. Das BASIC das er erstellt, soll Spiele ermöglichen – für etwas anderes taugt es weniger. So schiebt Apple sehr bald eine Implementation von Microsoft nach die es im Apple II+ ablöst.

Ich glaube auch nicht an viele seine Ausführungen. Das BASIC, das schon beim Apple I rund 4000 Bytes lang war, beim Apple II dann doppelt so groß ist, will er nur auf Papier in einem Notizbuch entwickelt haben. Sorry, das ist völlig unglaubwürdig. Er schreibt er hätte sich keinen Assembler leisten können. Nur: ein Assembler ist ein viel einfacheres Stück Software als ein BASIC Interpreter, ich habe auf meinem CPC selbst einen geschrieben, einen BASIC Interpreter hätte ich wohl nicht hinbekommen. Vor allem glaube ich nicht das jemand rund 2.000 Maschinencodebefehle mit Subroutinen und dann auch passenden Sprungadressen fehlerfrei auf Papier kodiert. Wenn etwas im Code nicht stimmt – wie verändert er das?

Am verhängnisvollsten ist sein Chip-Sparzwang beim Diskontroller, dem letzten Projekt für das er bei Apple verantwortlich ist. Andere Autoren verweisen gerne, das vorher Diskontroller Dutzende von Chips umfassen, während es bei Wozniak nur einige sind. Das Schreiben/Lesen auf Disketten ist nicht so einfach, weil nicht nur die Daten geschrieben werden müssen, sondern auch zahlreiche Verwaltungsinformationen. Es müssen Prüfsummen berechnet werden und alles ist zeitkritisch, denn die Diskette rotiert ja und verpasst man nur ein Bit, nützen einem alle Bits des Sektors vorher nichts. Wozniak hat die Aufgabe von TTL-Bausteinen auf die CPU verlagert. Er war nicht mal der einzige, der das tat. Commodore machte das bei allen ihren Rechnern so. Dort erhielten die Laufwerke eigene Rechner, mit 6502 Prozessoren die Commodore ja selbst herstellte. Das blieb bei Commodore bis zum Ende der Produktionszeit, so weil es einfach viel billiger war als einen FDC zuzukaufen. Die grundlegende Aussage, das man Dutzende von Chips brauchte, ist aber falsch. Schon 1976 wurde der Floppy-Disc-Controller (FDC) erfunden, der die meisten Bausteine auf einem Chip integrierte. Der erste war der WDC 1771. Bei meinem Heimcomputer bestand der Diskcontroller auch nur aus fünf Chips, dem FDC, einem ROM und drei TTL-Bausteinen. Und der zeitgleich erschienene Tandy TRS-80 setzte einen der ersten FDC auch ein.

Genützt hat es auf lange Frist Apple nichts. Denn damit war auch die Codierung der Floppies fest. Niemand schient Wozniaks Code verstanden zu haben (was mich angesichts eines Spiels von ihm das man auf der Wikipedia noch findet, auch nicht wundert), sondern man packte das Ganze in einen integrierten Baustein und nannte das IWM – integrated Wozniak Machine. Der grundlegende Nachteil – man konnte nichts mehr ändern. So hatte auch der Apple III nur Floppies mit 140 KByte Speicherkapazität, woanders gab es damals schon 2,5-mal mehr. Beim Apple IIe blieb das bis zum Produktionsende bei 140 KByte auch so bis man bei den schnelleren Modellen (Apple IIc+, Apple Iigs) mit mehr MHz dann die Kapazität vervierfachen konnte, was trotzdem die 1000 KByte unformatierte Kapazität nur zu etwas mehr als 50 % erhöhte.

Wozniak kritisiert, den Apple III als eine Maschine die vom Marketing aufgelegt wurde. Nun war einer der Fehler das der Apple III einen Apple II kompatiblen Modus haben sollte. Allerdings verhinderten gerade Wozniaks Designentscheidungen das auch der Apple III Modus sinnvoll genutzt werden konnten. Beim Apple II lagen wichtige Speicherbereiche für Betriebssystem und Prozessor sowohl unten wie oben im Speicher, der Grafikspeicher sogar mitten drin. So konnte der Apple III der seine 128 bis 512 KByte Speicher nur über Bank Switching erreichen konnte nur eine zentrale Bank von 32 K austauschen und außer der gab es für Programme keinen Speicherplatz für eigene Daten, die man spätestens beim Banks-Switching brauchte, wenn der nächste Programmteil mit ihnen weiterarbeiten sollte.

Vor allem stößt mir die Kritik sauer auf, das er anführt, dass der Apple III einen Apple II+ emuliert, aber die Käufer an die er gerichtet ist einen Apple II mit 80 Zeichenkarte und 16 K Erweiterung erwarten. Beide Karten, das sollte er wissen, wurden erst nach Entwicklungsbeginn des Apple III herausgebracht, auf Druck von Anwendern die Wozniaks Beschränkungen (vor allem der fehlenden Kleinbuchstaben und nur 40 Zeichen/Zeile) leid waren.

Nicht das der Apple III ein guter Computer war, aber man sollte ihn schon gerecht beurteilen.

Zurück zum Blogtitel. Ist Wozniak ein Naivling? Ich glaube nicht, denn in dem Buch hat er auch sehr viel ausgelassen. Das er zum Zeitpunkt des Apple I schon mit Alice Robertson verheiratet war, erfährt man mit keinem Wort, nur seine zweite Ehefrau wird erwähnt. Ebenso findet man viel über Jobs und die Arbeit an den Computern doch praktisch nichts über das persönliche Verhältnis der beiden zueinander. Nur bei wenigen Episoden, die schon hinreichend bekannt sind, wie dass Jobs ihn für Atari das spiel Breakout entwickeln lies, von dem Verdienst aber nicht die Hälfte, sondern ein Zehntel gab und ihn anlog, es hätte nicht mehr Geld gegeben, äußert er sich das ihn „das verletzt habe“ ohne aber auf irgendeine Auseinandersetzung oder Diskussion von Jobs Charakter einzugehen.

Was sich auch durch das ganze Buch zeiht sind Wozniaks Vorliebe für Scherze. Er unterhält zeitweise eine Witzehotline (ein Anrufbeantworter trägt kurze polnische Witze vor), er entwickelt einen TV Störer und das kann auch sehr teuer sein. Bei einer Messe lässt er 20.000 Broschüren eines fiktionalen Computers namens Zaltair verteilen und 20.000 Broschüren kosten sicher eine Menge Geld. Als ich das Buch zum ersten Mal durchgelesen habe kam mir die Idee, das das ganze Buch auch so ein Scherz ist. Wer eine Broschüre in hoher Auflage druckt nur, um einen Scherz zu machen, der ist sicher auch bereit ein ganzes Buch so zu gestalten, das die Leute denken „Mensch, das kann doch nicht sein ernst sein!“. Ehrlich gesagt ist das für mich noch die schlüssigste Erklärung. Niemand mit nur wenig Selbstreflektion und Selbstkritik kann ein solches Buch autorisieren und kein Ghostwriter der etwas auf sich hält, würde ein Buch so schreiben. Nur – ich warte bis heute, auf die Auflösung, das dies ein Scherz ist und das Buch ist mittlerweile fast 15 Jahre alt ...

1.12.2021: Brauchen wir eine Impfpflicht?

Das wird seit kurzer Zeit ja von der Politik diskutiert. Nun hat endlich auch mal der designierte Kanzler Olaf Scholz sich geäußert. Er wäre für eine Impfpflicht und will den Fraktionszwang dafür aufheben. In der Berichterstattung wird, dann schon spekuliert, ob ohne Fraktionszwang dann die Impfpflicht durchkäme. Immerhin bewegt sich selbst beim Partner FDP was, dem Worte mit „Pflicht“ oder „V“ am Anfang, wie Verbote, ja ganz sauer aufstoßen.

Ich glaube alle, die geimpft sind, und unter den Einschränkungen zu leiden haben sind angesichts schon in einigen Bundesländern voll belegten Intensivstationen, und zwar vornehmlich mit Ungeimpften sich einig sind, dass mehr geimpft werden sollte und alle die das bisher noch nicht getan haben es nun schleunigst nachholen sollten. Die persönliche Freiheit endet immer da, wo die Gesundheit der anderen gefährdet ist.

Doch braucht man dafür eine Impfpflicht und wie will man die kontrollieren? Es ist ja in keinem Falle vorgesehen, dass Impfunwillige mit der Polizei zum Arzt geschleppt werden. Wenn, dann gibt es bei Verstoß höchstens ein Ordnungsgeld. Aber wie soll das in der Praxis gehen? Soll die Polizei dann wie bei Personal- und Verkehrskontrollen Impfnachweise kontrollieren? Ich bin eher für die Impfpflicht durch die Hintertür, sprich flächendeckend 2G (nur Geimpfte/Genesene). Dann dürfen Nicht-Geimpfte eben nur noch Einkaufen und Arbeiten, kommen sonst aber nirgendwo mehr rein. Ich glaube, das steigert die Impfbereitschaft enorm. Ich weiß nicht ob Arbeitgeber das generell tun dürfen, aber die könnten auch eine 2G Regelung einführen. Werden sie aber wahrscheinlich nicht machen, weil ja noch 30 % der Bevölkerung ungeimpft sind und im arbeitsfähigen Alter (Gruppe 18 bis 59 jährige) sind es nach RKI heute 75,6 %, also müssten sie auf jeden vierten Arbeitnehmer verzichten.

Das ist ein Aspekt, der andere ist, das man dann auch impfen können muss. Die Impfzentren sind in den meisten Bundesländern wieder geschlossen worden. Die Zahl der Arztpraxen, die impfen, ist von 6.500 im Sommer auf 3.500 gesunken und die müssen nun auch die Boosterimpfungen durchführen. Meiner Ansicht nach sollte es wieder Impfzentren geben, oder andere Möglichkeiten. Andiskutiert wird ja auch schon, das man in Zahnarztpraxen und Apotheken impfen könnte. Das halte ich für sinnvoll, denn zumindest an meinem Wohnort gibt es mehr Zahnärzte als Ärzte.

Unter dem Gesichtspunkt halte ich es auch für falsch, wie von einigen Politikern schon gefordert den Impfstatus automatisch nach 6 Monaten verfallen zu lassen. Das kann man machen, wenn jeder zeitnah einen Termin bekommen kann, aber dem ist nicht so. Die Frau eines Freundes wäre Anfang Januar mit dem „Boostern“ dran, hat bei ihrem Arzt aber erst im März einen Termin bekommen. Ich habe ihr dann geraten den Arzt zu wechseln, denn als ich letzte Woche mittwochs bei der Vorsorgeuntersuchung war, habe ich das Thema zur Sprache gebracht und da ich Johnson & Johnson bei der ersten Impfung bekommen habe, bekam ich dann auch zeitnah einen Termin – diesen Montag.

Vielleicht als Anregung mal prinzipiell für die Ärzteschaft, die ja sehr darauf achtet, dass es nicht zu viele Ärzte gibt. Seit Jahren klagt man über Ärztemangel auf dem Land, nun müssen die Praxen noch etas leisten, was sie sonst nicht machen müssen und das mit zusätzlichen bürokratischen Hürden (ich hatte bei Vorsorgetermin auch eine Grippe/FSME Impfung, da musste ich nicht Zig Seiten durchlesen und das Lesen bestätigen, einen Anamnesebogen ausfüllen und auch beim Verlassen der Praxis nichts unterschreiben). Wäre es nicht sinnvoll mehr Leute zum Medizinstudium zuzulassen? Auch im Hinblick auf den Fachärztemangel. Ich bekam auch eine Überweisung zum Gastroenterologen. Da habe ich den Termin mittlerweile ausgemacht – er ist am 23. April, also in knapp 5 Monaten! Das kann doch nicht die Norm sein oder?

Zuletzt war ich irritiert, dass Journalisten befürchteten, ohne Fraktionszwang würde das Gesetz zur Impfpflicht scheitern. Warum? Ich habe von verschiedensten Lagern, (außer der AfD) Politiker vernommen die für eine Impfpflicht sind. Wenn einige Abgeordnete von der neuen Koalition nicht dafür sind, dann doch bestimmt einige von CDU/CSU und Linken. Wie wenig Gewissen und Verantwortung kann man denn haben, wenn man in so einer Situation, wo man für die Impfpflicht ist, einem Fraktionszwang (denn es bei Linken, AfD und CDU/CSU ja dann noch gibt) gehorcht?

3.12.2021: Das V-Wort und was Corona mit der Klimakatastrophe zu tun hat

Seit den Koalitionsverhandlungen wissen wir ja was das „V-Wort“ ist. Nein nicht das was ähnlich wie gefiederte Tiere klingt, sondern „Verzicht“. Wer sich mal den Kohlendioxidausstoß eines Durchschnittsdeutschen anschaut, wird feststellen, dass der größte Brocken der Konsum ist. Nach Angaben des Bundesumweltamtes entfallen 3,79 t Kohlendioxid des jährlichen Ausstoßes von 11,17 t also rund ein Drittel auf die Konsumausgaben. Der Rest entfällt aus Strom & Heizung, Mobilität, Ernährung und öffentliche Emissionen.

Und nun die tolle gute Nachricht – anders als bei allen anderen Maßnahmen etwas für das Klima zu tun kostet eine Reduktion des Ausstiegs nichts, sondern bringt sogar noch Geld ein. Denn die einfachste Maßnahme ist – Verzicht. (das böse V-Wort) Einfach weniger kaufen. Dinge länger benutzen, Reparieren anstatt Neu kaufen. Ganz so einfach ist die Sache aber nicht. Konsumverzicht geht natürlich. Etwa ein Drittel der Kleidung wird ungetragen wieder entsorgt. Gerade an Weihnachten sind Geschäfte voller Dinge die man je nach Einstallung als „Deko“ „Nippes“ oder „Unnütz“ bezeichnet. Ich denke, wenn man sich nur das kauft, was wirklich gebraucht wird, dann kann man nicht nur einiges an Geld sparen, sondern auch seinen Kohlendioxid-Fußabdruck verringern. Das geht dann sogar in andere Gebiete wie z.B. Verkehr weiter, wenn es z. B. anstatt dem Straßenpanzer (SUV) ein Wagen ist, der genauso so groß ist, wie man ihn braucht. Oder man mal den Urlaub in der Nähe verbringt anstatt um die halbe Welt zu reisen.

Aber es ist nur ein Aspekt. Ein grundsätzliches Problem ist die Obsoleszenz, also die geplante Einschränkung der Haltbarkeit. Dinge werden so konstruiert, dass sie nicht lange halten. Das sind nicht nur Elektronikgeräte, das betrifft alle Sektoren. Paradebeispiel sind Handmixer. Ein Zahnradgetriebe treibt die Besen an und die Zahnräder waren früher aus Metall. Heute sind sie aus Kunststoff, sie erwärmen sich und verformen sich und das Gerät geht kaputt. Ich habe einen Mixer, den ich Anfang der Neunziger gekauft habe. Schwer durch das verbaute Metall, ich habe mir einmal wegen des Gewichts einen Neuen, leichteren gekauft doch der hielt gerade mal ein Jahr. Seitdem ist der alte Handmixer wieder dauernd in Betrieb. Ähnliches höre ich von Hochdruckreinigern, wo auch Kunststoffteile Metall ersetzt haben und die Hochdruckereingier nach relativ kurzer Zeit dann an Leistung verlieren.

Das Schlimme daran: früher konnte man sich verlassen, das, wenn man „Marke“ kauft, man etwas qualitativ hochwertiges, langlebiges, reparaturfähiges kauft. Dias ist heute schon lange nicht mehr so. Die Hochdruckreiniger von Kärcher leben auch nicht länger als die Eigenmarken in einer ähnlichen (zumeist etwas geringeren) Preisregion von Discountern und Baumärkten. Eine Baumknecht-Waschmaschine in meinem Ferienhaus (wo es nicht mal die Hälfte des Jahres belegt ist und dann auch entsprechend weniger gewaschen wird) hat gerade mal fünf Jahre gehalten. Ich glaube nicht, das die Hersteller sich damit einen Gefallen tun. Den der Anspruch den die Marke hat, ist ja, dass sie für Qualität steht. Wenn die Markenhersteller, nun um mit im Billigsegment mitbieten zu können, genauso minderwertig wie die anderen Hersteller dort produzieren, dann rächt sich dies. Denn man erwartet eben von der Marke mehr und wenn die Qualität nicht stimmt, dann trägt man das der Firma mehr nach als einer No-Name-Firma. Ich sehe natürlich den Spannungsbogen, dass der Hersteller in jedem Preissteigernd beteiligt sein will. Im Prinzip geht es ja um die Erwartungshaltung des Käufers und darum zu erkennen welche Qualität man kauft. Mein Vorschlag: führt definierte Begriffe ein, mit definierten Anforderungen an die Qualität, aber auch die Möglichkeit und Aufwand für eine Reparatur (Kosten, Zugänglichkeit) und die zeitliche Garantie der Verfügbarkeit von Ersatzteilen. Woanders gibt es ja so was. Netzteile werden seit Jahren nach ihrer Wirksamkeit in „Bronze“, „Silber“ und „Gold“ eingeteilt. Für Energieeffizienz gibt es den Zifferncode der Europäischen Union. Mein Vorschlag: Führt bei allen Geräten, die langlebig sind oder zumindest sein sollen so was ein. Von mir vorgeschlagene Begriffe wären z. B. „Basic“, „Standard“, „Premium“. Basic - heißt zum Beispiel auf die Lebensdauer bezogen – mittlere Lebensdauer liegt im Bereich der Herstellergarantie, Standard dann fünf Jahre Lebensdauer und Premium zehn Jahre. Analoge Anforderungen muss es natürlich für die Verfügbarkeit von Ersatzteilen und die Zugänglichkeit für Reparaturen geben. Insbesondere hochpreisige Apple-Geräte haben z. B. Akkus die nicht auswechselbar sind.

Zur Reduktion des Kohlendioxidgehaltes von Konsumgütern gehört aber natürlich auch, die Wiederverwertung zumindest des Materials. Dazu gehört es möglichst wenige verschiedene Materialien zu verwenden und eine leichte Trennung dieser. Noch besser wäre wenn man Teile direkt wiederverwenden könnte. Gerade bei der Weiterverwertung sind wir noch am Anfang. Nach Gesetz darf man elektronische Kleingeräte beim Kauf eines neuen wieder ins Geschäft zum Recycling abgeben. Nur nehmen viele Geschäfte diese „Rückgaben“ nicht an und der Online Handel ist sogar ganz außen vor. Elektrogroßgeräte wie eine Waschmaschine oder Kühlschrank kann ich beim Kauf eines neues Gerätes abholen lassen oder von dem Abfallwirtschaftsamt entsorgen lassen. Beides mal gegen Gebühr, aber das ist in Ordnung. Da klappt es wenigstens mit der Entsorgung. Richtig schlimm ist es mit allen Geräten zwischen Klein und Groß. Die soll man dann als Bürger zur Recyclingstation bringen. Dort wird sie in einen Container geworfen, geht dabei meistens kaputt oder ist zumindest so beschädigt das auch das einfache auseinandernehmen zur Trennung erschwert ist. Also für mich sieht Verwertung anders aus. Vor allem ist das ein System für Autofahrer. Meine Recyclingstation ist 3,5 km entfernt zwischen zwei Ortschaften. Noch habe ich das Glück das, wenn ich was habe ich mich bei meinem Bruder mit einhängen kann, um es abzugeben. Wenn das mal nicht mehr geht, werde ich es wohl mit einem Bollerwagen über die Distanz transportieren müssen. Ob ich das noch mache? Ich glaube eher nicht. Ein sinnvolles System sieht bei mir anders aus. Mein Vorschlag: ein bis zweimal pro Jahr gibt es einen Sammeltermin für einen bestimmten Stadtteil, wo wie beim Sperrmüll alles mitgenommen wird. Dann können Wägen jeweils ausgelegt für ein Gut nacheinander die Straßen abklappern und sortenrein Fernseher, Staubsauger etc. separat sammeln.

Nun zu meinem zweiten Thema das aber meiner Ansicht nach gut zum Thema passt. Nämlich Corona. Was hat Corona mit Klima zu tun? Vieles. Das Klima betrifft wie Corona alle Menschen weltweit. Es wird immer schlimmer, wenn man nichts unternimmt, und die negativen Veränderungen sind nicht linear. Im Prinzip ist die Coronapandemie die Klimakatastrophe im Zeitraffer (oder die Klimakatastrophe die Coronapandemie in der Zeitlupe). Weitere Gemeinsamkeiten: Je früher man etwas tut und je mehr man tut, desto geringer sind die negativen Folgen bzw. desto mehr kann man mit den Maßnahmen ausrichten. Ebenso wichtig und in beiden Fällen komplett unterschätzt – es ist ein weltweites Phänomen. Wir müssen nicht nur bei uns etwas fürs Klima tun, sondern auch andere Staaten unterstützen, die nicht das Geld haben und noch viel ineffizienter Energie nutzen. Ebenso müssen wir auch dafür sorgen der Entwicklungsländer möglichst schnell ein hohes Impfniveau bekommen. Ich halte es für keinen Zufall, dass die Delta Variante in Indien zuerst auftauchte und die Omikron Variante in Südafrika. Beim Klima gibt es ja das grundsätzliche Problem, das Maßnahmen heute Geld kosten, aber erst in Jahrzehnten wirken, noch bedeutsamer – die BRD alleine wird auch das Klima nicht retten können. Eben sowenig wie Corona keine Gefahr mehr ist solange sie noch in einem Land auf der Welt grassiert, denn wie wir ja bei der Pandemie und allen „Varianten“ gesehen haben, sie verbreiten sich durch Reisen selbst aus entlegensten Gebieten in Südafrika oder chinesischen Provinzen innerhalb von Tagen über die ganze Welt.

Bei Corona kann die Politik anders als bei Klimaveränderungen auf kleinen Zeitskalen reagieren und aus Nachlässigkeiten oder Fehlentscheidungen lernen. Fehler äußern sich innerhalb von sieben Tagen in steigenden Inzidenzzahlen und in 14 Tagen kommen dann die ersten Patienten auf den Intensivstationen an. Das sollten Zeiträume sein, mit denen auch Politiker nachkommen, die ja sonst in Zeiträumen von maximal vier Jahren denken. Aber nun sind wir in der vierten! Welle. Wieder einmal hat man im Sommer sich auf (angeblichen) Erfolgen ausgeruht, die letztendlich aber nur der Witterung geschuldet waren und wieder einmal ist wieder die Rede von demselben Katalog an Maßnahmen. Und da unterscheidet sich die neue Ampel nicht von der alten Regierung – übrigens auch beim Klima nicht, denn da haben FDP (von der war es zu erwarten) und SPD (die sich anders als die FDP ja auch als Klimaretter aufgespielt hat) die Forderungen der Grünen zusammengestrichen. Wenn sogar Andreas Scheuer sagt, was im Koalitionsvertrag über Verkehrspolitik drinsteht hätte er auch aushandeln können, dann ist eigentlich schon alles gesagt.

Wer den Blog regelmäßig besucht weiß, ich halte wenig von Politikern und Politik. Aber sie schafft es regelmäßig meine eh schon geringen Erwartungen noch negativ zu unterbieten.

Passender Song zum ersten Teil des Blogs: Mit leichtem Gepäck von Silbermond.

5.12.2021: Retrocomputer

Seit ein paar Jahren läuft ja die Retrowelle, sprich, alte Computer sind wieder gefragt. Die ct’ bringt jeden November eine zusätzliche Retroausgabe heraus die mich bisher auch jedes Mal zu neuen Artikeln inspiriert hat. Wer bei eBay einen alten gebrauchten Computer kaufen will, stellt fest, dass die inzwischen sehr teuer sind. Ich habe vor einigen Wochen versucht einen ITT 2020 mit zwei Diskettenlaufwerken zu kaufen. Doch das Endgebot von 285 Dollar war mir zu hoch. Dabei ist das nicht einmal eine Marke, die einen besonderen Ruf hat. Der ITT 2020 war der einzige lizenzierte Nachbau eines Apple II+.

Schon bei der letzten Retroausgabe der ct’ stieß ich darauf, dass es Leute gibt, die nicht nur einen alten Rechner wiederbeleben wollen, sondern sogar heute einen Rechner wie damals in den frühen Achtzigern konstruieren wollen, also einen 8 Bit Rechner mit BASIC oder CP/M. Bei Tindie gibt es da eine reiche Auswahl. Interessanterweise in der Sparte „Vintage Computer“. Vintage bedeutet aber echt alt, während Retro nur der Nachbau etwas alten ist. Ansonsten wird man auch fündig, wenn man „Retrocomputer“ „Basic“ und/oder „CP/M“ als Suchbegriffe bei Google eintippt.

Das Sortiment bei Tindie ist groß. Es gibt zum einen Nachbauten berühmter Computer – des Apple I und Altair. Diese Rechner sind nicht nur legendär, sondern inzwischen auch selten und teuer. Das gilt speziell für den Apple I, von dem es nur noch 73 Stück geben soll, davon nur sieben lauffähig. Als ich vor mehr als zehn Jahren für die erste Auflage meines Buchs Computergeschichten recherchierte betrug, der höchste Preis der für einen Apple I bei einer Auktion bezahlt wurde 70.000 Dollar, inzwischen sind es 905.000 und seit eineinhalb Jahren kann man einen für 1,5 Millionen Dollar bei E-Bay ersteigern. Selbst ein Nachbau von heute soll 1999 Dollar kosten – der Apple I wurde für 666,66 Dollar verkauft ...

Vom Apple II wurden etwa 200 Stück gebaut, Altair etwa 10.000 ab und an taucht einer bei eBay auf. Gerade kann man dort für einen Nachbau den IMSAI 8080 (der Computer der im Film „Wargames“ genutzt wurde) steigern. Obwohl defekt, ist 13 Stunden vor Bietschluss schon der Preis bei 626 Euro – neu kostete er weniger als 400 Dollar.

Es gibt mehrere Wege einen solchen Computer nachzubauen. Am schwierigsten ist es einen vollständigen Computer zu bauen. Also einen den man an einen Monitor anschließen kann und an den man eine Tastatur anschließen kann und der auch einen Grafikmodus beherrscht. Ein Grafikmodus setzt voraus, das man sich mit der schwierigen Aufgabe eines Videodisplaycontrollers auseinandersetzt und eine Hardware hat welche die Grafikausgabe „on-the-Fly“ generiert, während bei Textausgabe man nur das Bitmuster aus einem ROM in ein Schieberegister kopieren muss. Selbst die Rechner, die man direkt an Monitore und Tastatur anschließen kann haben in der Regel nur Textausgabe.

Doch die meisten machen sich nicht mal so viel Aufwand mit einem Retrocomputer. Wenn man den eigenen PC oder einen Raspberry Pi über ein USB Kabel an den Retrocomputer anschließt, so ist der von diesem aus gesehen ein Terminal. Auf dem PC muss man dann noch eine Terminalemulation installieren. Dann kommt man mit wenigen Bausteinen aus:

Würde man auf mehr als 64 KByte Gesamtspeicher verzichten käme man sogar mit drei Bausteinen aus. Diese Rechner basieren dann meist auf CP/M, da dies sowieso ein textbasiertes Betriebssystem ist, das Terminals kennt und offen zugänglich und weit verbreitet ist. Nur sind die Rechner schneller als damals. Der langsamste ist ein Z80H mit 7,8 MHz, der schnellste den ich fand ein eZ80 mit 36 MHz. Dabei führt eine eZ80 die intern voll pipelined ist, die einfachen Befehle in einem Takt aus, der Z80 braucht 4 dafür, er müsste also so schnell wie eine 140 MHz Z80 sein.

Die letzte Gruppe von Retrocomputern macht es sich noch einfacher. Bei ihr geht es nur um das Retrocomputer-Feeling, aber die Hardware ist eine andere. Dann nutzt man heute verfügbare Mikrocontroller wie die PIC Serie oder ARM-Chips und schreibt für diese Controller Software die z.B. einen BASIC Interpreter beim Einschalten startet. Da diese Mikrocontroller sowieso interne Flash-Speicher haben und auch internes RAM kommt man praktisch mit einem Baustein aus.

Daneben findet man bei Tindie, wahrscheinlich auch noch woanders auch noch Zubehör für alte Rechner z.B. Erweiterungskarten für den Apple II.

Hier mal einige Kits mit unterschiedlichen Leistungen, Anforderungen an die eigene Geschicklichkeit und Programmierfähigkeiten.

Die älteste Plattform ist die RC2014 (RC = Retrocomputer). Damals baute ein Bastler einen Rechner mit Tiny BASIC 86 KB), 32 KB RAM rund um eine Z80 CPU mit 7,8 MHz. Das Projekt hat sich inzwischen stark vergrößert. Beim RC2014 steckt man wie beim Altair auf eine Backplane nach und nach die Karten die man braucht. So kann man sich den Computer zusammenbauen den man will, muss aber jede Karte zusammenlöten. Man braucht aber einige Karteb, da auf jeder Karte nur eine Funktion ist, also eine für das RAM, eine für das ROM, eine für die CPU. Der Basisrechner umfasst schon 5 Karten. Immerhin findet man hier auch Karten mit Soundchips und Videoprozessoren. Die Software dafür muss man dann aber selbst entwickeln. RC2014 ist wohl etwas für alle, die wirklich einen eigenen Computer von Grund auf neu bauen wollen.

Die Zahl der Rechner die CP/M starten und den PC als Textterminal nutzen, ist größer und die Anforderung kleiner – wenn man löten muss so kann man dies auf eine Platine beschränken. Einige der Projekte haben sich auch aus dem RC2014 Projekt heraus entwickelt. Ich habe mir zuerst den SC131 Computer auf Basis einer 18 MHz Z180 bestellt. Das erschien mir, da man bei allen Kits diese selbst zusammenlöten muss, noch als das mit dem wenigsten Aufwand. Angefangen habe ich damit noch nicht, aber das Päckchen war sehr schnell da – bestellt am Sonntag war es am Freitag da, und das aus England. Amazon in Deutschland braucht da oft länger. Man muss zu dem Preis aber noch Mehrwertsteuer und Zoll hinzurechnen, das sind etwa 25 % des Preises, welche die Post bei Übergabe kassiert. Ich habe es noch nicht zusammengebaut, weil ich inzwischen ein zweites Board MiniZ-C geordert hatte. Hauptvorteil dessen ist, dass man nichts löten muss. Dafür ist es teurer und schneller. So kann ich dort erst mal sehen ob ich überhaupt Freude dran habe, bevor ich anfange 200 Lötpunkte für die Sockel und Busteile beim SC131 zu setzen. Was mich bei dem durchschauen der Dokumentationen übrigens am meisten erstaunte war, das man die in den CPUs Z180 und eZ80 integrierte serielle Schnittstelle (also RS-232 Standard) direkt mit einem USB-Stecker am PC verbinden kann, ohne Bridge-Chip. Zwar heißt USB Universal Serial Bus, aber das er kompatibel zu RS-232 ist wusste ich nicht.

Wer einen Rechner sucht, der wie früher ein Heimcomputer nach dem Einschalten direkt einen BASIC Interpreter zeigt, bei dem es aber nicht die Prozessoren von damals sein müssen, kann einen Blick auf den Color Maximite werfen. Mit einem 480 MHz ARM-Prozessor, 8 bis 32 MB RAM und Grafik bis Full-HD schlägt er frühere Heimcomputer um Längen. Den Color Maximite kann man über die Schnittstellen und das GPIO Feld auch nutzen, um Messwerte zu gewinnen.

Die Frage ist natürlich warum man sich so was kaufen sollte?

Nun sicher nicht aus den Beweggründen von damals. Programmieren lernen kann man einfacher und ich würde auch nicht raten, dabei bei BASIC anzufangen, sondern eine Sprache die leicht zu erlernen aber leistungsfähig ist. Phyton ist sehr beliebt und wird auch weit verwendet. Die Kenntnisse, die man dort gewinnt, kann man nutzen, um Mikrocontroller zu programmieren entweder auf der Arduino-Plattform oder auf dem Raspberry PI der ja auch einen GPIO Header hat.

Niemand wird heute wohl alte CP/M Programme auf einem solchen Rechner laufen lassen. Selbst wenn der Wunsch danach besteht, so gibt es mit Emulatoren für CP/M, aber auch jeden beliebigen Heimcomputer, bessere Möglichkeiten. Das gilt erst recht für die vielen Spiele, die ja plattformspezifisch sind. Ich glaube, es ist einfach das Schwelgen in Erinnerungen. Dank der schnelleren Prozessoren ist es ja ein positives Schwelgen, denn die Langsamkeit der damaligen Rechner bekommt man so nicht mit. Kürzlich, weil ich für einen Artikel wirklich mal klären wollen, wie schnell die Prozessoren 6502, 6800, 8080 und Z80 in Maschinensprache relativ zueinander bei einem konkreten Problem sind, suchte ich nach Daten dafür. Es gab es ja damals schon Streit, und man konnte BASIC-Programme von verschiedenen Rechnern kaum vergleichen, weil da immer der Interpreter als Unbekannte dazu kam. Kurzum ich stieß auf einen alten Benchmarktest der in Byte veröffentlicht wurde, auch mit den Zeiten der Prozessoren, leider aber mit dem schnelleren 6809 (nicht 6800) und ohne den 8080. Das Programm gab es auch in anderen Sprachen und ich habe aus Lust und Laune heraus das Pascalprogramm im Editor nachgeschrieben und dann in einem CPC 6128 Emulator laufen lassen. Da merkt man dann erst, wie man vieles vergessen hat – den langsamen Bildschirmaufbau, bei dem man zuschauen konnte, wie sich die Zeilen bildeten und die geringe Auflösung des Bildschirms und natürlich das alles in Monochrom war, keine Syntaxhervorhebung wie ich es eigentlich seit 30 Jahren gewöhnt bin.

Wenn das MiniC-Z System da ist schreib ich euch mal wie das so läuft.

7.12.2021: Wie viele Bits hat ein Byte?

Also wenn die Antwort „acht“ lautet, dann solltest Du weiterlesen, wenn sie „das kommt darauf an“ lautet, dann kannst Du Dir diesen Blog schenken.

Im Prinzip speichern ja alle Computer ihre Daten in Form von einzelnen Bits. Lange Zeit wurden auch Speichermodule, egal ob dies Ringkernspeicher oder DRAM waren, bitweise angesprochen (heute ist, damit man bei 32 bzw. 64 Bit pro Datenzugriff, nicht so viele Chips benötigt es gängig vier Bits pro Zugriff zu speichern).

Doch mit einzelnen Bits können die wenigsten Computer etwas anfangen. Es gibt relativ wenige Rechner, die Befehle für den Zugriff auf einzelne Bits haben. Der Z80 hatte solche Befehle, die ich aber nie benutzt habe. In jedem Falle adressieren aber Computer nicht einzelne Bits, sondern immer mehreree Bits auf einmal die eine Einheit bilden. Auf ein Bit greift man dann mit Masken zu. Dazu lädt man die Einheit (n Bits) in ein Register und verknüpft dieses mit einer Konstante, die ein Bit setzt oder rücksetzt. Mit einer logischen ODER-Verknüpfung bei der das richtige Bit gesetzt ist kann man ein Bit setzen, ohne die anderen zu verändern (z.B OR 0001 000B um das fünfte Bit zu setzen. Mit einem logischen Und kann man ein Bit zurücksetzen, bei der Maske sind dann alle Bits auf „1“ bis auf das zurücksetzende (AND 1110 1111B würde das fünfte Bit zurücksetzen und mit logischem Und, diesmal aber invertierter Maske (alle 0 bis auf das zu prüfende Bit) kann man testen, ob ein Bit gesetzt ist oder nicht (AND 0001 000B setzt nach der Operation das Zero-Flag, wenn das Bit nicht gesetzt war).

Computer griffen auf ihren Speicher meistens in größeren Portionen zu, die sich nach der Breite des Datenbusses richteten und der war oft (nicht immer) genauso breit wie die internen Register. Beherrschte ein Computer nur diesen Zugriff, nicht auf den von einzelnen Bytes, so griff er „wortweise“ auf den Speicher zu, entsprechend organisiert war der Speicher dann auch in Worten und nicht Bytes. Das gab es bei Superrechnern (Cray 1) wie Mikroprozessoren (TMS 9900). Die meisten Computer beherrschten aber noch den byteweisen Zugriff, weil sehr oft das Byte die grundlegende Informationseinheit war und nicht das Bit.

Die Gruppierung von Bits zu einem Byte kam dadurch, dass zwar Computer am besten mit Zahlen umgehen, aber in der Praxis sie es auch mit Buchstaben zu tun haben, selbst wenn die Programme nur Zahlen verarbeiten wie dies oft der Fall war, so bestand der Programmquelltext doch aus Buchstaben. Er musste verarbeitet werden und zumindest für einige Meldungen musste man auch in Buchstaben ausgeben und Befehle wurden auch Buchstabenweise eingetippt.

Am Anfang orientierte man sich danach, welche Zeichen man eingeben konnte. Lange Zeit war das Standardeingabegerät ein umgebauter Fernschreiber und die alten Exemplare kannten nur Großbuchstaben. Dafür reichten 5 Bits, doch das war für Programme zu wenig. Dazu kamen dann noch die Ziffern 0 bis 9 und einige Sonderzeichen wie Klammern, Satzzeichen. Sie benötigte man damals nicht für Texte sondern Programmiersprachen. Auch wenn es Ausnahmen gab. COBOL vermied z.B. Zeichen wie + - * / und man schrieb ADD, SUBTRACT, MULTIPLY und DIVIDE. Die ersten Programmiersprachen wie FORTRAN und COBOL nutzten denn auch in den Programmen nur Großbuchstaben und die Sonderzeichen. Für diesen Menge an Zeichen reichten aber 6 Bit für 64 Zeichen. Entsprechend war ein Byte sehr lange Zeit eine Datenmenge von 6 Bit und ganze Rechnerfamilien kann man an dieser Ausrichtung erkennen. So die ersten Supercomputer Cyber 6600 und 7600. Sie waren Rechner mit einem Adressraum von 18 Bit (3 x 6 Bit) und konnte Zahlen von 60 Bit (10 x 6 Bit) verarbeiten. Die Firma PDP stellte Minicomputer mit 12 Bit, 18 Bit und 36 Bit Datenbusbreite her . Allesamt vielfache von 6 Bit. Es gab zur gleichen Zeit (sechziger Jahre) durchaus auch Rechner die 8 Bit für ein Byte verwendeten, wie die IBM 360 Familie, aber es gab keinen direkten Nutzen des nun erweiterten Codes der nun 256 Zeichen erlaubte.

Problematisch war nicht nur das ein Byte mal sechs, mal acht Bits groß war, sondern vor allem das jeder Hersteller eine eigene Zuordnung hatte. So hatte der Buchstabe „A“ bei IBM einen anderen Code als bei DEC. Das hatte sicher auch den erwünschten Nebeneffekt, dass man die Peripheriegeräte auch vom selben Hersteller kaufen musste sollte der Ausdruck noch lesbar sein und der Rechner die Eingabe vom Terminal verstehen.

Die US-Regierung die verschiedenste Systeme in verschiedenen Organisationen wie Militär, NASA, Forschung, Verwaltung im Einsatz hatte, ärgerte sich über diesen Missstand und standardisierte schon 1963 die Codetabellen und es erschien die erste Version ASCII – American Standard Code for Information Interchange. Wie der Name sagt, ging es darum das man Daten, damals noch vornehmlich auf Magnetbändern zwischen Rechnern austauschen konnte, aber auch Peripheriegeräte immer denselben Zeichensatz verstanden.

Schon von Anfang an, das war 1963, war dieser Zeichensatz 7 Bits groß, konnte also 96 Zeichen aufnehmen. So viele braucht man nicht. Selbst mit einigen neuen Zeichen für Computer, die man auf einer Schreibmaschine nicht findet, wie den beiden neuen Klammertypen [] und {} benötigte man nicht mehr als 96 Zeichen. Die ersten 32 Zeichen sind daher nicht definiert und wurden sehr bald genutzt als Steuerzeichen. Einige sind standardisiert wie #9 für den Tabulator, #13 für den Wagenrücklauf, #10 für den Zeilenvorschub und #12 für einen Seitenvorschub (beim Bildschirm löschen des Bildschirms, beim Drucker vorschieben des Papiers). Doch schon bei den wenigen Zeichen, die man dafür benötigte, gab es keine Übereinkunft. Bei einem Hersteller musste man für eine neue Zeile zum Drucker #13 und #10 schicken, beim anderen nur #13. Bis heute unterscheiden sich Textdateien von Unix und Windows Systemen in diesem Detail. Erst recht waren die anderen Zeichen in diesem Bereich nicht standardisiert. Sie wurden vor allem von Bildschirmterminals für Funktionen wie Cursorpositionierung oder Editierfunktionen (löschen bis zum Zeilenende / Seitenende etc.) genutzt.

Zum Durchbruch für das 8 Bit Byte verhalf ein Regierungserlass, der nach der zweiten Fassung von 1968 verabschiedet wurde. Danach dürften Regierungsstellen nur noch neue Computer anschaffen, welche den ASCII Standard einhielten, also einen 7 Bit Zeichensatz nach diesem Standard zumindest unterstützten. Das war das Ende der 6 Bit Architekturen und neue Rechner setzten nun auf das 8 Bit Byte und entsprechende Wortbreiten. Bei DEC führte man dann Architekturen mit 16 oder 32 Bits ein.

Was man auch versäumt hat, weil es ja der US-Regierung nur um den US-Markt ging, war zu bedenken, das es in Europa noch einige Sonderzeichen mehr gibt. In Deutschland die Umlaute und das ß, in zahlreichen romanischen Sprachen Vokale mit Akzenten und in Skandinavien wieder andere, insgesamt sind es, aber nicht so viele Zeichen mehr, mit 30 zusätzlichen Zeichen könnte man sieben europäische Sprachen mit abdecken. Da alle Computerhersteller schließlich nicht die 7 Bit des ASCII, sondern 8 Bit für ein Byte als Zeichensatz verwendeten, wäre hier etwas weiter denken sinnvoll gewesen. So musste ich bei meinem 8 Bit Computer, der aus England kam, wenn ich Textverarbeitung betreiben wollte, vorher ein Programm laden das einige Zeichen mit neuen Bitmaps versah. Wollte ich dann Programmieren war dasselbe in der anderen Richtung nötig, denn die belegten Zeichen waren in meiner Programmiersprache wichtig (es waren [] {} | \ und ^).

Da ein Byte dann 8 Bit hatte – 7 Bit hätten ja auch gereicht, aber wahrscheinlich wollte man lieber gerade Zweierpotenzen haben, waren die Zeichen mit den Nummern 128 bis 255 im ASCII-Standard undefiniert. Die konnte man nutzen um den Textmodus aufzupeppen. Sehr lange hat sich dies beim VGA-Textmodus gehalten wo Programme von Norton und Borland extensiv diese Zeichen nutzten um Rahmen und Schatten zu zeichnen. Die ersten Heimcomputer, die keine Grafik sondern nur einen Textmodus hatten, implementierten dort Spielfiguren in verschiedenen Posen um Animationen zu ermöglichen. Andere machen Blockgrafik daraus – opfert man 16 Zeichen, so kann man Blockgrafik mit der doppelten Auflösung des Bildschirms erzeugen (also 160 x 50 Punkte bei einem 80 x 25 Zeichen Bildschirm).

Erstaunlicherweise finden wir in der Frühzeit der Heimcomputer wieder das zurückgehen auf den 6 Bit Zeichensatz – sowohl Tandy TRS-80 wie Apple ][ (in Deutschland Apple ÖÄ – sie ahnen warum) hatten in ihrem Zeichensatz keine Kleinbuchstaben. Zwar speicherten sie die Information nach ASCII in einem 8-Bit-Byte ab, aber im reinen Textmodus muss man aus einem Charakter-ROM die Bitmap holen, um sie auf dem Bildschirm auszugeben. Typisch waren damals 6 bis 8 Byte für die Bitmap eines Buchstabens und so sparte man mit 26 Buchstaben weniger eben 156 bis 208 Byte ein – bei einem ROM von nur 4 KByte Größe des Tandy TRS-80 durchaus eine Größe die zählt. Beim Apple II lag es wohl eher daran, dass Wozniak überhaupt nicht daran dachte, das Kleinbuchstaben eine Bedeutung hätten, sein BASIC kannte ja auch keine Fließkommazahlen. Er hatte es für die Programmierung von Spielen geschrieben und da gibt es maximal einige Titel und Meldungen, die aus Text bestehen.

Für Peripheriehersteller war das aber ein Nachteil, auch weil die Zeichen über 128 nicht standardisiert waren. Es gab spezielle Druckeranpassungen für populäre Rechner wie den C64. Ich hatte damals einen Star NL-10 Nadeldrucker, bei dem man mit dem Cartridge den Zeichensatz austauschen konnte, damit konnte er den ganzen Zeichensatz eines IBM PC aber auch die Zeichen meines Computers ausgeben.

Das ganze hat sich erst geändert, als der Unicode eingeführt wurde der nun Zeichen vieler Sprachen beinhaltet und momentan 145.000 Zeichen umfasst. Ursprünglich war es ein 16-Bit-Code, aber der reichte dann auch nicht aus. Unicode ist aber relativ jung, der heutige Standard stammt vom Juli 1996. Vorher war das Zeichenwirrwar vorprogrammiert. Man konnte sich nicht mal darauf verlassen, das zwei Zeichensätze von ein und demselben Hersteller passten. So verwendet Windows einen anderen Zeichensatz als DOS, obwohl beides von Microsoft stammt.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99