Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 213: 10.2.2011 - 15.2.2011

Donnerstag den 10.2.2011: Die schlechtesten Computer - der Sinclair QL

Na da habe ich ja beim vorletzten Blog voll ins schwarze getroffen. Wenn Leute nach dreißig Jahren mit der "Mein Computer ist besser als Deiner Diskussion" herkommen, und sich nur deswegen bei Seiten posten die sie nie zuvor besucht haben, dann muss der Frust mit dem Gerät schon tief sein. Es kann ja nicht schlecht sein, sonnst hätte ich ja umsonst die vielen Seiten mit Peeks und Poke eingetippt ... Vielleicht widme ich mich nochmal einem Gerät von Commodore, da gibt es noch mindestens einen heißen Kandidaten für diese Rubrik.

Heute gibt es sicher weniger Zuschriften, denn das Gerät hat sich etwa 100 mal weniger häufig als der C64 verkauft. Es ist vielleicht nicht der einzige Sinclair Rechner in dieser Rubrik, aber sicher der in meinen Augen schlechteste.

An und für sich war die Idee ja innovativ: einen 16 Bit Rechner für jedermann. Das es nur der MC68008, also mit 8 Bit Datenbus (das 8088 Gegenstück in der MC68K Serie). Aber die Umsetzung kann ich nur mangelhaft finden. Da ist erst mal die Hardwareausstattung: Nur 128 kbyte RAM, davon 32 kbyte Bildschirmspeicher sind für einen  solchen Prozessor einfach zu wenig. Selbst der Atari ST wurde mit 512 ausgeleifert und es kostete auch damals nicht wirklich viel, etwa 300 Mark Aufpreis für die RAM Chips. Die Tastatur war etwas besser als beim Spectrum, aber sicher nicht von der Qualität von anderen Heimcomputern, die nur einen Bruchteil kosteten. Vor allem aber diese Fixierung auf Microdrives - sie waren fehleranfällig, langsam und die Bänder teurer. Stattdessen wräe ein Diskettenlaufwerk sicher eine bessere Lösung gewesen.

Das zweite war die Software im ROM. An und für sich eine tolle Idee, aber die Programme waren vom Funktionsumfang so bescheiden, dass sie kaum von Nutzen waren und das Microdrive das nicht geeignet für Dateiverwaltung oder Dateien die veränderliche Größen haben taten das übrige. Was Sinclair aber geritten hat das Gerät mit einem BASIC Interpreter als Betriebssystem - nicht eine grafischen Oberfläche auszustatten?

Wer in BASIC Programmieren will macht das auf Rechnern die so ressourcenarm sind, dass nur das läuft. Ein leistungsfähigeres Gerät wie der MC68008 gekoppelt mit mehr Speicher erlaubt es sich von dieser Einsteigersprache zu lösen, schließlich war sie ja mal gedacht um Programmierer an andere Sprachen heranzuführen. Das BASIC war komfortabel, aber es war eben nur ein Interpreter, kein Compiler und Geräte dieser Leistungsklasse haben eben ein echtes Betriebssystem von dem aus, wenn das gewünscht ist eben dann ein BASIC gestartet wird.

So wundert es nicht das das Gerät floppte - für den Hobbyisten der BASIC programmiert war es mit 1.600 bis 2.000 Mark viel zu teuer und für den Anwender der einen Rechner zum arbeiten brauchte fehlte das Betriebssystem, Diskettenlaufwerke und vor allem ernsthafte Anwendungen. Der QL kann das Verdienst beanspruchen der erste Heimcomputer mit einem MC68K Prozessor zu sein, aber Atari zeigte einige Monate später wie es richtig gemacht wird und wie auch ein Rechner für diesen Preis aussehen kann.

Sinclair hatte viel Geld in die Entwicklung investiert und musste seine Firma verkaufen. Bis heute macht er übrigens Erfindungen - mit wechselndem Erfolg.

Freitag 11.2.2011: Die schlechtesten Computer - der Ti 99/4a

Eigentlich, so sollte man meinen, gehört der Ti 99/4a nicht hierhin. Schaut man sich die Maschine von außen an, so war sie ein Glanzstück zu ihrer Zeit - in einem polierten Metallgehäuse anstatt einem Plastikgehäuse, es war 256 x 192 Farbgrafik verfügbar, wenn auch etwas umständlich über hexadezimale Zeichendefinitionen programmierbar. Vor allem hatte er 16 kbyte RAM zu einer Zeit wo noch  1k oder 5k bei den Konkurrenten üblich waren. Erweiterbar war es durch eine Erweiterungsbox aus solidem Stahl mit drei Diskettenlaufwerken und acht Steckplätzen. Verfügbar waren unter anderem eine 32 kbyte Speichererweiterung, RS-232 Schnittstellen, USCD.-P System, Sprachsynthesizer etc... Er konnte auf 48 kbyte RAM und mindestens 86 kbyte ROM (ROM eigentlich unbegrenzt) ausgebaut werden.

Warum ich ihn trotzdem hier aufführe war die verkorkste interne Architektur. Als ich über diese zum ersten Mal las, habe ich mich gefragt warum. Inzwischen ist es mir klar geworden: Ti entwickelte für den Computer einen neuen 8-Bit Prozessor, den TMS9985. Nur klappte das nicht. Nun wurde in das schon weitgehend fertige Design, der TMS 9900 eingefügt, den es schon gab. Der TMS9900 ist einer der ersten 16 Bit Prozessoren. Sicher nicht einer der schnellsten, aber beim Vergleich der Taktzyklen sicherlich so schnell wie ein Z80 bei gleicher Taktfrequenz plus der Möglichkeit mit erweiterten Befehl wie z.B. für die Multiplikation und Division zu punkten. Nur wurde der TMS9900 von Texas Instruments schon 1976 für den Einsatz in Minicomputern entwickelt.

Er hatte ein Designmerkmal, das bei Unterstützung ihn sehr mächtig machte: Es gab intern nur wenige Register, aber einen Workspacepointer. Er zeigte auf einen Bereich im Arbeitsspeicher wo dann 16 Register verfügbar waren. Das ist vom Prinzip her super - braucht eine Unterroutine freien Speicher, so muss man nicht zig Register mit PUSH/POP sichern, sondern nur den Workspacezeiger und wenn er woanders hin zeigt, hat man 16 neue Register zur Verfügung. Bei Taskswitches kann so ebenfalls schnell gewechselt werden. Nur ist das essentiell gebunden an schnelles RAM. Bei Mikrocomputern kein Problem - bei Preisen von 10.000 $ aufwärts pro Stück ist es egal ob statisches schnelles oder langsames dynamisches RAM drin steckt. (Zumal der TMS9900 nur 64 kbyte adressieren konnte) Nicht aber in einem Heimcomputer. Der Ti 99/4a hatte nur 256 Bytes schnelles statisches RAM auf das der Prozessor schnell zugreifen konnte. Alles andere war dynamisches RAM, was bei jedem Zugriff auf eines der Register im RAM 4 Taktzyklen extra kostete. Schlimmer noch - da der 16 Datenbus des Prozessors auf einen 8 Bit Datenbus zum Speicher mit einem Multiplexer mündete, da dieser für den 8-Bit Prozessor ausgelegt war, wurden so weitere 40% verloren. Benutzer welche die RAM's durch statische RAM's ersetzten und auch die ROM's ins RAM kopierten (eigene Lötarbeiten waren natürlich so nötig) konnten die Geschwindigkeit des Systems verdoppeln.

Das letzte waren die ROM. Auch sie waren langsam, dass sie Waitstates erforderten. Schlimmer jedoch war, das Ti eine eigene Architektur einsetzte, die GROM. Diese waren nur adressseriell auslesbar, das bedeutete, dass der Prozessor, wenn er die tausendste Adresse benötigte erst mal 999 einlesen musste. Sie waren nur durch einen Datenport angebunden und dadurch war zwar das System erweiterbar auf unendlich viel ROM, aber es war langsam. Zudem enthielten diese nicht Maschinencode sondern eine hardwarenahe Sprache namens GPL, für die es einen Interpreter in der Konsole gab - selbst der BASIC Interpreter war in GPL geschrieben. Das erforderte weniger Chips pro Cartridge, machte das ganze aber noch langsamer.

Zum Schluss beherrschte das BAIC nur Fließkommazahlen mit 16 Stellen Genauigkeit - genau aber langsam. Das es inkompatibel zu allen anderen Sprachen war, mag erwähnt sein. Es liegt jedoch nicht an TI (es ist sogar ein ANSI BASIC, also gehorcht dem offiziellen Standard - dumm nur das die meisten anderen Implantationen sich nicht an diesen Standard hielten, sondern dem von Microsoft nachgingen).

So war der Ti 99/44a trotz 16 Bit Prozessors mit 3 MHz nur halb so schnell wie ein VC-20 mit einem 6502 und 1 MHz. Ti hat leider nichts am Design geändert obwohl der Rechner über 4 Jahre lang produziert wurde. Der Ti 99/4a ist Nachfolger des schon 1979 erschienenen Ti 99/4. Er bekam aber eigentlich nur 256 Bytes statisches RAM und eine ordentliche Tastatur (der Ti 99/4 hatte eine mit Gummitasten). Man hätte das verkorkste Design schon damals korrigieren sollen. Es gab dann noch das Extended BASIC Modul, das in Maschinensprache geschrieben war und so doppelt so schnell wie das eingebaute BASIC war und mit dem auch die Hardwaresprites des Videoprozessors direkt programmiert werden konnten - aber es kostete extra.

Zum Verhängnis wurde der Maschine der durch Commodore angezettelte Preiskrieg, bei dem Ti massive Verluste machte. Die Leute schauten nur auf die RAM Ausstattung und die Geschwindigkeit - da konnte der Rechner nicht punkten. Er war zwar erweiterbar, doch die Preise für Peripheriegeräte waren hoch, weil Ti darüber die Verluste bei der Konsole hereinholen wollte. Sie verkaufte die sich aber auch schlecht. Nur jeder zehnte Käufer erwarb auch eine Erweiterungsbox - Voraussetzung für den Einsatz von Diskettenlaufwerken und Speichererweiterungen. Meiner Meinung nach hätte der Rechner einen besseren Stand gehabt, wenn die Architektur die Vorteile seines Zentralprozessors ausgenutzt hätte, dann hätte man auch mehr erlangen können. So stand er aber auf verlorenem Posten.

Immerhin hat TI etwas gelernt und beim TMS 9995 einige Lehren aus dem Konzept gezogen. Dieser Nachfolgeprozessor des TMS9900 war nicht nur zweieinhalbmal schneller (und schneller als ein 8086), sondern er hatte nun auch die 256 Byte Scratchpad RAM auf dem Chip integriert, was es erlaubte schnell zwischen 8 Sätzen von je 16 Registern zu wechseln. Der TMS9995 wurde von IBM als Prozessor für ihren IBM PC untersucht und kam in die engere Wahl, was z.B. dem Motorola 68000K nicht gelang.

Ti plante einige Nachfolgemodelle auf Basis des TMS 9995 so den Ti 99/2 und Ti 99/8. Der erstere noch billiger in der 100 Dollar Klasse, der letztere ausbaubar bis 16 Mbyte RAM. Beide wären mit ihren 10,7 MHz schnellen Prozessoren wohl interessante Rechner gewesen, doch mit den Verlusten bei dem Ti 99/4a wurden diese Geräte eingestellt.

Es sagte mal ein Computerfachmann zur Verkaufsabteilung von Texas Instruments: "Sie produzieren eine Limousine und verkaufen sie zum Preis eines Volkswagens und können den Unterschied nicht deutlich machen" - nun ja nicht ganz die Wahrheit, eher hat man eine Limousine produziert und ihre Leistung auf die eines Volkswagens reduziert und dann Verluste gemacht.

Samstag 12.2.2011: Die schlechtesten Computer - der Altair 8800

Ja auch der erste PC schlechthin bekommt von mir sein Fett weg. Nun eigentlich ist es ja kein PC. Man könnte es eher als Micorcomputerlernkit wie ein KIM-1 oder ein MicroProfessor ansehen, denn mehr konnte das Gerät in seiner Grundkonfiguration nicht. Aber betrachten wir es mal als Computer, es wurde ja sogar als "Mainframe of the seventies" verkauft (bei der Recherche zu meinem Buch fiel mir der starke Widerspruch zwischen den MITS Anzeigen und den ausgelieferten Produkten auf).

Ausgeliefert wurde der Altair 8800 mit einer Busplatine und vier Steckplätzen. In einer Steckkarte war die CPU untergebracht, in einer zweiten der Arbeitsspeicher von ganzen 256 Bytes und eine dritte nahm die Ansteuerung des Frontpanels vor. Das Frontpanel hatte Leuchtdioden zur Ausgabe der aktiven Datenleitungen und Adressleitungen und Kippschalter um Daten einzugeben - neun Stück mussten pro Byte betätigt werden.

Schnittstellen? Fehlanzeige. Es gab nicht mal Aussparungen an der Rückseite des Gehäuses, sodass man den Deckel zum Herausleiten von Anschlusskabeln nicht ganz schließen konnte. Da das Gerät aber nicht abgeschirmt war und den Emfpang von Radios störte war das eh egal.

In der Grundversion war das Gerät unbenutzbar. Der Anwender musste für ein Minimalsystem mindestens folgende Erweiterung kaufen:

an so etwas exotisches wie eine Fernsehausgabe möchte man ja gar nicht denken. Und zack ist man zusätzlich zu den Altair 8800 mindestens weitere 600 Dollar los, mit einem Fernschreiber sogar bis 1.600 Dollar. Immerhin ist die Speicherkarte nur teilbestückt und kann auf volle 1 kbyte (also dem vierfachen des Speichers der Grundversion!) erweitert werden. Also ein typisches Geschäft mit der Masche: ein billiges Einstiegsgerät und Kasse wird dann über das Zubehör gemacht. Wobei: ohne Zubehör war das Gerät nicht bedienbar. Selbst den Bootcode um ein Programm von einer Cassette einzulesen musste man jedes Mal neu eintippen, was im besten Fall rund 250 Kippschalterbetätigungen entsprach. Das unterscheidet den Altair von vielen anderen Heimcomputern die ja auch keinen Massenspeicher oder Monitor hatten, aber immerhin konnte man sie ja noch im Auslieferungszustand zu etwas nützlichem verwenden - man musste nicht erst Zubehör kaufen um auch nur das Gerät programmieren zu können oder nur eine für Menschen lesbare Ausgabe zu erhalten.

So verwundert es nicht, das MITS enorm viel für das einzige Stück Software verlangte, das ihren Rechner benutzbar machte. Als das Altair BASIC herauskam konnte man es für 500 Dollar alleine kaufen, oder man kaufte eine 4 kbyte Speicherkarte für 254 Dollar und bekam es für 60 Dollar. Das ist doch eine nette Preispolitik oder? Vor allem wenn man weis, dass die Karten nicht funktionierten. Also der Käufer konnte eine nicht funktionierende Speicherkarte mit BASIC für 314 Dollar kaufen oder BASIC alleine für 500 Dollar... Da fällt einem die Wahl doch leicht oder? Die meisten benutzten aber eine dritte Methode: Raubkopien. Nur etwa 10-15% der Käufer eines Altair erwarben auch das BASIC einer neu geründeten Firma namens Micro-Soft. Sie verdienten trotzdem 180.000 Dollar an dem BASIC und kündigten den Vertrag mit MITS, als diese Summe erreicht war und dann eine Kappungsklausel griff und sie nichts mehr verdienen würden.

Es gäbe auch sonst noch ein paar  Dinge zu berichten. So war das Netzteil zwar ziemlich groß, aber die Leistung reichte nicht aus, vor allem nicht wenn die Leute ihren Rechner voll bestücken wollten. (Wofür sie erst mal drei Erweiterungsteile kaufen und an diese jeweils 100 Drähte anlöten mussten). Die Leistung hätte wohl gereicht, wenn der Bus reguliert gewesen wäre, also die beiden üblichen Spannungen 5V und 12V mit definierten Stromstärken pro Karte zur Verfügung gestellt hätte. doch dass fiel bei dem schnellen Design unter den Tisch. Jede Karte musste aus 8V und 18V die Spannungen selbst ableiten.

Es wundert nicht, dass diese Mängel eine ganze Reihe von neuen Unternehmen auf den Plan riefen, die aus Garagen erwuchsen wie Processor Technologies, Northstar Computers und andere. Ed Roberts nannte sie "Parasiten". Klar sie knabberten an dem Kuchen, mit dem man Geld verdiente....

Samstag dem 13.2.2011: Die Computerbranche bescheist

Ja anders kann man es nicht nennen und es geht so seit mindestens 30 Jahren: Die meisten Angaben bei Computern sind falsch.

Basierend auf dem Binärsystem nachdem Computer arbeiten gibt es folgende Gesetzmäßigkeiten:

Da die Vorsilben, "giga", Nega" und "tera" im normalen Leben nicht vorkommen gibt es auch keine Verwechslung mit Begriffen aus dem Alltag wo ja kilo für 1.000 steht. Eine Ausnahme sind die Funkfrequenzen, aber diese haben ja auch nichts direkt mit den Computern zu tun und wenn dann dort von GHz die Rede ist, so weis man dass es nicht 1.073 Milliarden Herz sondern nur 1 Milliarden Hertz sind.

Während nun bei Speicher in einem 1 gbyte RAM auch tatsächlich rund 1.073 Milliarden Speicherzellen drin sind, hat es sich eingebürgert in zahlreichen Produkten falsche Angaben zu machen. Eine 2 Tb Festplatte enthält eben nur 2.000.000.000.000 Bytes - und nicht 2.199.023.255.552 Bytes - das sind immerhin fast 200 gbytes oder 10% zu wenig!

Natürlich hat eine 12 Megapixelkamera auch keine 12.582.912 Pixel, sondern nur 12.000.000. Meistens aber weniger Hier wird sogar noch etwas unverschämter gelogen, denn nur die Schärfeninformation stammt aus diesen Pixeln. Die Farbinformation teilen sich jeweils 4 Pixel, weil auf dem Chip eine Bayer-Maske mit je zwei grünen und einem roten und blauen Pixel ist und aus diesen 4 Pixeln die Farbinformation gewonnen wird. Diese Schummelei gibt es selbst bei teuren SLR Kameras. So hat eine Nikon D90 12.212.224 P Pixels im Bild und wird als "12.3 Megapixelkamera" beworben - da hat man nochmals aufgerundet und so den Benutzer um rund 685.000 Bildpunkte (immerhin fast so iel wie die noch vor 10 Jahren übliche Standardauflösung von 1024 x 768 Pixels) betrogen.

Noch schlimmer wird das wenn es um den Nutzbaren Anteil geht. Meistens wird dieser nämlich gar nicht angegeben. Bei Onboard Grafikkarten belegen diese einen Teil des Arbeitsspeichers. Nur findet man diese Angabe fast nie bei den Produktbeschreibungen. Es gibt auch heute noch Computer mit 3 oder mehr Gbyte RAM, die mit einer 32 Bit Version von Windows ausgeliefert werden und die dann nur 3 Gbyte oder etwas mehr (hängt von dem Motherboard ab) nutzen können.

Das ist ja nichts neues: Schon bei den Heimcomputern wurde immer das Gesamt-RAM angegeben, nie der freie Teil. Bei der ersten Heimcomputergeneration war die Differenz noch klein, so 1-2 kbyte z.B. beim VC-20 und Ti 99/4a. Als dann Geräte mit Bitmap Grafik kamen, belegte die je nach Gerät weitere 6 bis 16 kbyte, dazu kamen Puffer für Diskettenlaufwerke, Sprungvektoren fürs Bankswitching und zack waren von 64 kbyte noch je nach Gerät 37 bis 42 kbyte übrig, also gerade mal zwei Drittel dessen was versprochen wurde.

Das ist allerdings nicht nur eine Spezialität der Heimcomputer sondern auch die Betriebssysteme schluckten was. CP/M war sparsam und belegte nur 5,5 kbyte. MS-DOS 1.0 schon 12 kbyte. Die MS-DOS 2.0 Version schon 47 kb. Das war bei den ersten MS-DOS Rechnern mit 64 bis 256 kbyte Speicher schon mal ein Viertel des Arbeitsspeichers. Das ist bis heute so geblieben. Wenn mein Windows 7 startet sind nach dem Booten schon mal über 30%, mithin bei mir rund 1,2 gbyte Speicher weg. Okay, Windows ist nicht mit MS-DOS zu vergleichen: findet es mehr Speicher vor, so belegt es mehr Speicher für Diskcaches oder bald DLL's die kurz vorher benötigt wurden und nun eben nicht meehr und wird er knapp wird der Speicher frei gegeben. Aber die Tendenz ist klar

Es wäre wieder mal Zeit für ehrliche Angaben wie formatierte Kapazität in gängigen Maßeinheiten (auch populär in der Computersteinzeit war es bei Floppdisklaufwerken die unformatierte Kapazität anzugeben) und bei Betriebssystemen und anderen Systemen mit variablen Anforderungen eine Liste was mindestens belegt oder gefordert wird und was zum zügigen arbeiten reicht. Wer mal die Systemanforderungen von Programmen gelesen hat weiss was ich meine: Oftmals stehen da für Programme so niedrige Werte, dass das Programm noch startbar ist, man aber damit nicht arbeiten kann.

Sonntag 14.2.2010: Raumfahrtereignisse

Zwei Ereignisse stehen in den nächsten zwei Tagen an. Da ist zum einen der Vorbeiflug von Stardust an Tempel 1 und zum zweiten der Start des zweiten ATV "Johannes Kepler".

Er ist der zweite Schwerlasttransporter der nun die ISS erreicht und er hat eine wichtige Aufgabe: Den Großteil seiner Ladung macht der Treibstoff aus. 4.5 t werden mitgeführt um den Orbit der Station anzuheben. Nun da sie fertiggestellt ist und nur noch zwei Space Shuttle Flüge anstehen kann ihr Orbit angehoben werden. Das war vorher wegen der Nutzlastmaximierung des Space Shuttles nicht notwendig. Die Treibstofftanks sind randvoll. Zusätzlich werden 850 kg Treibstoff für Swesda mitgeführt. Auch diese dienen demselben Zweck. Dazu kommen 100 kg Gase. Wasser wird nicht mitgeführt, da die Tanks derzeit gut gefüllt sind. Das System konnte aber nicht ausgebaut werden, da Abwasser von der ISS entfernt werden soll. Neue leichtgewichtige Racks nehmen 1.600 kg trockene Fracht aus.

Insgesamt wird Johannes Kepler 7.100 kg zur ISS bringen (500 kg mehr als noch vor einem Jahr angekündigt). Das sind 2.400 kg mehr als bei Jules Verne und trotzdem ist er nur 600 kg schwerer. Dabei muss man aber auch berücksichtigen, das Jules Verne große Vorräte an Treibstoff für verschiedene Demonstrationsmanöver an Bord hatte.

Die meisten Sachen im Druckbehälter wurden schon im September verladen. 420 kg wurden am 29. Januar hinzugeladen. Erstmals wurde so der "Late Cargo Acess" ausgenutzt. Der Start ist für morgen geplant.

Am gleichen Tag, allerdings etwas früher (genauer gesagt 37 Minuten nach Mitternacht) fliegt Stardust an Tempel 1 vorbei. Der Komet wurde schon 2004 von Deep Impact besucht und primäres Ziel ist natürlich festzustellen wie der Impaktor den Kometen verändert hat. Da die Treibstoffvorräte fast erschöpft sind ist da etwas Unsicherheit drin. Zum einen soll der Krater natürlich fotografiert werden, zum anderen ist die Rotationsperiode von Kometen nicht so genau bestimmbar und sie verändert sich durch Gasjets. Seit dem 18.1. fotografiert Stardust den Kometen wobei durch die hohe Vorbeifluggeschwindigkeit Details erst auf den letzten Bildern zu sehen sein werden. Jeden Tag nähert sie sich dem Kometen um 950.000 km.

Unglücklicherweise war das Kamerasystem nicht die wichtigste Nutzlast - Stardust hat nur ein Reserveexemplar der Voyager Weitwinkelkamera an Bord. 72 Bilder wird sie aufnehmen und auf dem lokalen Speicher des Bordcomputers zwischenspeichern. Bei einer minimalen Distanz von 200 km wird die Auflösung 12 m betragen, etwas schlechter als die von Deep Impact mit 10 m. Selbst bei den höchstauflösenden Aufnahmen wird der Komet aber nicht das Bild ausfüllen. Sie sind aber fast dreimal besser als die beim Vorbeiflug an Wild/2 und sie sollen vor allem den durch Deep Impact hinterlassen Krater zeigen. Alte Raumsonden sind noch zu was nütze - vor allem wenn man dank dem "Constellation Program" seit einigen Jahren kaum noch neue baut.

Sonntag 13.2.2010: Das Ende einer Fernsehära

Nun geht auch noch Gottschalk, nach dem Unfall in der letzten "Wetten Dass" Sendung hört nun auch Gottschalk zum Staffelende auf. Manche meinen, er hat nur den richtigen Absprung gesucht und gefunden, weil die Sendung seit einigen Jahren an Quote verliert und auch die Hinzunahme von Hunziger daran nichts änderte. Es gab ja Kritik an den letzten Sendungen. Gottschalk wäre unkonzentriert gewesen, das schon übliche herumgequatsche ohne Sinn hätte stark zugenommen und Kritik gab es auch das die Prominenten und ihre Aussagen immer flacher werden. Das mag alles stimmen, aber Gottschalk macht es noch immer sehr charmant und besser als jeder andere.

Schon einmal gab es ja mal eine kurzzeitige Unterbrechung der Ära Gottschalk, als das ZDF Lippert einige Jahre lang Wetten dass moderieren ließ - Mensch war das peinlich. Der schreckte nicht mal zurück auf offener Bühne Paul McCartney um ein Autogramm zu bitten. Ich wage zu prophezeien, dass der Weggang von Gottschalk auch das Ende von "Wetten dass" sein wird, und damit das Ende der klassischen Samstag-Abend Unterhaltung. Kann sich noch jemand an früher erinnern, als die Unterhaltungsshow fest zum Samstag Abend gehörte? Mit Sendungen wie das Laufende Band, Einer wird Gewinnen, Verstehen Sie Spass oder eben Wetten Dass? (die anderen Versuche des ZDF andere Samstag-Abend Shows zu etablieren scheiterte ja alle). Es gibt heute keine richtigen Showmoderatoren mehr und alle die nun als Nachfolge diskutiert werden sind entweder Quizmoderatoren, Comedians oder Talkshowmoderatoren. Darum geht es aber nicht. Es geht darum charmant durch eine Show zu führen.

Ich kenne keinen der das schafft. Günter Jauch als wohl prominentester Nachfolgekandidat ist zu trocken und passt gut in eine Quizshow oder Stern-TV aber nicht auf eine Couch zum lockeren Talk und wahrscheinlich wird sich das ZDF bei den Leuten bedienen die sie schon hat, also den Lanz mit seiner komischen Aussprache oder dem Quiz-Pilger Pilawa, der von Sender zu Sender tingelt wenn die Quizshows, die er moderiert, nicht mehr laufen.

Was wird kommen? Das das deutsche Fernsehprogramm noch uniformer wird. Seit Jahren läuft es ja nach demselben Muster: Billigproduktionen vor Qualität und Nachmachen was andere tun. Deswegen gibt es zig Krimisendungen sowohl auf den öffentlich rechtlichen wie auch privaten, dazu die auswechselbaren Talkshows, Quizshows und Telenovelas. Es ist zum Abschalten!

Dienstag 15.2.2011: Schlechte Computer - der IBM PC / AT

Ja ich mache vor nichts halt, nicht mal vor dem IBM PC. Warum ist er ein schlechter Computer? Weil wir mit den Einschränkungen über 20 Jahre lang arbeiten mussten die man durch die fix-fix eingeführten Standards hatte. Aber fangen wir mal an: IBM wollte einen neuen Computer, der besser als die etablierten Rechner ist. Was haben sie dafür ausgesucht?

Das alles wären genug Punkte um den Rechner schon einen Spitzenplatz in dieser Liste zu geben. In der Tat kam auch der Verkaufserfolg erst, als der IBM PC/XT vorgestellt wurde - mit dem fehlerkorrigierten MS-DOS 2.01, dass nun auch Unterverzeichnisse unterstützte und damit eine Festplatte sinnvoll unterteilte. Das Netzteil des XT reicht aus um eine Festplatte ins Gehäuse einzubauen und der Speicher betrug nun 256 kbyte auf der Hauptplatine, erweiterbar auf 640 kbyte. Alle warteten dann auf die nächste Generation - schließlich gab es sieben Monate nach dem Erscheinen des IBM PC schon Intels nächsten Chip mit dem 2086 Prozessor. Doch erst Mitte 1984 kam der IBM AT - nun mit 286 Prozessor, aber sonst? Keine Nutzung des Protected Modes mit DOS, nur ein neues Diskettenformat und die EGA Grafik, die nun endlich auch Text darstellen konnte. Das war es ... IBM nutzte die neue Hardware nicht effektiv in einer Zeit als sie noch die Markt hatten neue Standards zu setzen. Als sie dann neue Standards setzen wollten ging das aus verschiedenen Gründen nach hinten los (bei OS/2 durch die fehlende DOS Kompatibilität und die hohen Hardwareansprüche und beim MCA Bus durch die hohen Lizenzgebühren- So gibt es als kleine Reminiszenz an eine Krücke die man beim IBM AT einführte um mehr als 1 Mbyte Speicher unter DOS anzusprechen selbst heute noch in jedem neuen x86 Prozessor das berüchtigte A20 Gate.

Vor allem zementierte er die Vormachtstellung einer Firma mit einem besch... Betriebssystem, die natürlich über mehr als ein Jahrzehnt nur wenig an diesem änderte, schließlich verdiente man ja damit gutes Geld. Sie machte nichts anderes als IBM, die ja auch die Plattform kaum weiterentwickelte, schlie0lich verdiente man ja mit ihr viel. Als IBM etwas ändern wollte hatte sie nicht mehr die Marktmacht das durchzusetzen und sie taten die falschen Schritte indem sie versuchten andere Hersteller sowohl durch das Betriebssysten wie Bussystem auszuschließen. Das klappt aber nicht mehr wenn man selbst an Marktanteilen verliert.

Das wäre gewesen wenn wohl IBM einen vernünftigen PC gebaut hätte? Einen mit MC68000 Prozessor, vernünftiger Grafik, einem von Unix abstammenden Betriebssystem? Man wagt ja gar nicht dran zu denken.... Rechner dieser Art gab es ja von Sub, Apollo und Silicon Graphics. In den achtziger Jahren schaute man neidisch auf diese Workstations, die so viel besser als die PC's waren. Aber der Rechner dürfte ja nicht zu leistungsfähig sein, um den Großrechnern keine Konkurrenz zu machen. Bei 8 MHz erreicht ein MC68000 immerhin rund 625 dhry/s. Eine VAX 780 die in etwa vergleichbar in der Geschwindigkeit zu einem IBM 370 (Model 158) Großrechner war, leistet 1442 dhry/s. Da heißt: ein solcher PC würde 40% der Rechenleistung eines Rechners bieten, für den IBM 2,2 Millionen Dollar haben will - selbst wenn das gute Stück dann 10.000 Dollar kostet wäre das noch ein Schnäppchen gewesen. Da trifft es sich doch gut, das ein 8088 mit 4,77 MHz nur 72 drhy/s leistet.

Hinweis zur Grafik: für 1988/89 fand ich keine Daten.

Montag 15.2.2011: Gute Computer

Ich habe mir überlegt, ob ich was zu den vielen Kommentaren zum Artikel über den C64 schreiben sollte. Da offensichtlich erkennbar ist, dass sie den Blog nicht richtig gelesen haben und irgendwelche Behauptungen in der Art der CPC464 ist besser als der C64 unterstellen, habe ich mir das geschenkt. Das läuft dann auf eine Diskussion raus, die ich schon seit den Achtzigern hinter mir habe. Sie bringt nichts. Was ist ein guter Computer? Im wesentlichen einer, der die Erwartungen des Anwenders erfüllt. Diese hängen natürlich auch von dem Preis und der Orientierung ab. Von einem Rechner für 10.000 Mark erwartet man was anderes als von einem für 1.000 Mark und von einem Bürorechner erwartet man sicher nicht tolle Soundfähigkeiten und von einem Heimcomputer nicht den Anschluss einer Festplatte.

Also um mich nicht wieder auf die Diskussion C64 einzulassen, blende ich den mal komplett aus und schreibe über zwei andere Computer nämlich die CPC Serie und den Sirius 1.

Die CPC Serie waren Rechner die von Amstrad produziert wurden. Anders als andere Heimcomputer gab es sie im Komplettpacket - Monitor mit Zentraleinheit und Floppydisklaufwerk. Das vermied den Kabelsalat. Weiterhin war es so möglich 80 Zeichen/Zeile anzuzeigen, was für Anwendungen wichtig war. Bei der Entwicklung der Serie wurde deutlich, dass dies die Hauptanwendung der Rechner wurde. Der Erstling CPC464 war noch mit 64 kbyte RAM und Kassettenrekorder - ohne Floppydisklaufwerk wohl eher ein Gerät für Spieler. Nur: wer einen Rechner nur zum Spielen haben will, braucht dafür keinen Monitor, den er mitbezahlen muss. Der greift zu einem mit guten Grafik und Soundfähigkeiten den er an einem Fernseher betreiben kann. Davon gab es ja auch schon einige auf dem Markt.

Wer Anwendungen betreiben will, braucht aber ein Diskettenlaufwerk. Das wurde im nächsten Gerät, dem 664 integriert. Vom Design der Tastatur finde ich den 664 am besten gelungen, vor allem wegen des gut abgetrennten Cursorblocks. Das Problem war immer noch, das unter CP/M das bei allen Modellen mit zum Lieferumfang gehörte, wegen des 16 kbyte großen Bildschirmspeichers nur eine 44 kbyte große TPA hatte, was zu wenig für die meisten Anwendungen war. Das wurde mit dem nächsten Modell dem 6128 korrigiert, das nun unter CP/M 61 kbyte Speicher zur Verfügung stellte. Unter BASIC gab es nur einige zusätzliche Befehle für eine RAM-Disk oder das Speichern des Bildschirms.

Das Gerät wendet sich daher mit dem guten BASIC, das die Grafik- und Soundfähigkeiten unterstützt, Interruptbehandlung und weitere Schleifentypen bietet an Leute die primär mit BASIC anfangen wollen, aber den Aufstieg zu einem professionellen Einsatz nicht ausschließen wollen. Für diese reicht dann auch die 3" Floppy mit ihren vergleichsweise teuren Disketten. Dank Standardanschlüssen für Diskettenlaufwerke und Drucker kann jemand, der den Rechner wirklich professionell einsetzt, sich einfach eine zweite Floppy im 3,5" oder 5,25" Format anschließen, auf der dann auch je nach Hersteller bis zu 800 kbyte drauf gingen. Bei dem konkurrenzlos günstigen Preis (ein Monitor alleine kostete damals 500 DM, Diskettenlaufwerke bei anderen Herstellern auch rund 900 DM) konnte man dann das 3" Laufwerk als geschenkt mit hinzunehmen. (der niedrige Preis für das Laufwerk war auch der Grund warum Amstrad das ungewöhnliche Format einsetzte). Wie sich zeigte, bevorzugten die meisten Anwender den Einsatz unter CP/M, weswegen als Nachfolgeserie die PCW Serie herauskam, die primär CP/M Rechner waren und sich noch besser verkauften - 8 Millionen Stück verglichen mit 3 Millionen CPC's. Prinzipiell lief es bei mir ähnlich: Ich habe angefangen in BASIC zu programmieren, eine eigene Textverarbeitung und einen Assembler/Disassembler geschrieben. Dann kam das Diskettenlaufwerk, CP/M und damit die Möglichkeit Wordstar und dbase einzusetzen. Damit arbeitete ich über 8 Jahre lang während des gesamten Studiums entstanden so Studienarbeiten, Protokolle, Auswertungen und Analysen. Unterstützt wurde das durch Turbo Pascal, das nach weniger als einem Jahr BASIC als Programmiersprache ersetzte.

Was erwarte ich dann von einem 16-Bit Rechner? Meiner Meinung nach mehr Leistung als von einem 8-Bitter. Das trifft auf den Sirius 1 zu: Er bot einen Speicher von 128 kbyte, erweiterbar auf 896 kbyte. Diskettenlaufwerke die 612 kbyte speicherten, mit einer Aufrüstung sogar 1,2 Mbyte. Dazu kam ein hochauflösender Monitor mit einer Auflösung von 800 x 400 Pixeln und 132 x 50 Zeilen in der Textdarstellung. Eine Festplatte konnte ins Gehäuse integriert werden. Die Tastatur und Monitor hatten hohe Qualität und bekamen einige Ergonomiepreise.

Verglichen damit war der IBM-PC recht schlecht ausgestattet. Er bot nur 64 kbyte RAM, erweiterbar auf 256 kbyte. Der Monitor konnte nur Text darstellen. Für Grafik brauchte man einen zweiten Monitor samt Farbgrafikkarte der aber maximal 320 x 200 Pixels zeigte und auf die Floppys gingen nur 160 kbyte drauf. Eine Festplatte war anfangs gar nicht anschließbar. Später benötigte man eine eigene Erweiterungsbox dafür. Dabei kosteten beiden Geräte gleich viel. Gerade der Sirius zeigt aber auch das ein gutes Gerät nicht erfolgreich sein muss: Denn die Überlegenheit in der Hardware bedingte auch, dass er nicht IBM-PC kompatibel war, sondern ein MS-DOS kompatibler. Sehr bald erschienen Programme die direkt auf die Hardware zugriffen und nicht mehr auf dem Sirius 1 liefen. Der Wechsel kam mit dem IBM PC XT, der nun mehr Speicher bot und ebenfalls die Möglichkeit eine Festplatte einzubauen.

Das Kriterium "verkauft sich gut" ist zumindest keines, das für Qualität steht. Das gilt für den IBM-PC, aber auch den TRS-80 oder bei Software gilt es für MS-DOS.  Was sind nun allgemeine Kriterien für einen guten Computer?

Unbezahlbare Rechner mit enorm leistungsfähiger Hardware würde ich genauso wenig als gutes Konzept bezeichnen (LISA) wie Rechner die zwar billig sind aber eben auch zu nichts zu gebrauchen (ZX81). Auf der anderen Seite kann man auch mit guten Konzepten keinen Erfolg haben, wenn sie eben nicht dem Standard entspricht - das ging der Atari ST Serie oder dem Amiga so.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99