Bernd Leitenbergers Blog

Meine Wünsche an den nachhaltigen PC

Wenn ich aus meiner Warte aus mir die PC-Industrie ansehe, so hat sich in den letzten 15 bis 30 Jahren nicht viel geändert. Die Grafische Benutzeroberfläche erreichte den Consumermarkt 1985 und Windows XP als grafisches Betriebssystem mit sauberem (nicht kooperativem) Multitasking und abgestuften Rechten kam 2001. (Bevor wieder Schlaumeier kommen: Ja beide Entwicklungen sind älter, aber ich rede vom Massenmarkt). Seitdem ist alles schöner und bunter geworden, gab es neue Busse oder Standards (USB 1.1 → 2.0 → 3.0 → 3.1) aber nichts revolutionär Neues. Trotzdem gibt es noch einiges, was zu verbessern wäre. Hier mal meine Wünsche an den langlebigen und ernsthaft nutzbaren PC:

Datenintegrität:

Seit es Computer gibt, kennt man das Problem der Datenkorruption, das im Digitalen Zeitalter viel problematischer ist als im Analogen. Das Problem ist ja nicht neu: Es geht Information verloren. Wenn bei analogen Medien die Signalstärke abnimmt, oder das Signal-Rauschverhältnis zunimmt, sind Kontraste nicht mehr so stark (bei Fotos), Amplituden geringer oder es gibt Störgeräusche (bei Tonsignalen) aber man kann das Medium noch nutzen. Im Digitalzeitalter ist es problematischer. Bei Code kann ein umgekipptes Bit einen Befehl verändern und so zu Berechnungsfehlern, Ablaufproblemen oder zum Absturz führen. Bei Daten kann der Wert komplett ein anderer sein, vor allem wenn die Daten komprimiert sind, kann ein fehlerhaftes Bit sich auf eine größere Datenmenge auswirken. Schwer vorstellbar, das ein JPG-Bild ein fehlerhaftes Bit auf 100 Bits, wie es manche Mariner 10 Fotos hatten, aushalten würde.

Nun ist das Problem bekannt und schon Rechner der Sechziger Jahren hatten Techniken um Bitfehler zu erkennen. Die grundlegenden Techniken sind seitdem unverändert: Man speichert neben den Daten auch zusätzliche Informationen, die es erlauben einen Bitfehler zu erkennen. Die Methoden sind unterschiedlich. Es können Prüfsummen sein, einfache Verknüpfungen der Bits eines Wortes oder komplexere Methoden die es erlauben die Fehler auch zu korrigieren, wenn diese nicht zu häufig sind.

Bei Arbeitsspeicher gibt es schon lange ECC-RAM. Es setzen heute aber nur Server ein, die normalen Motherboards für Consumergeräte unterstützen ECC-RAM nicht. ECC-RAM kann 1 Bit Fehler in einem Datenwort (heute 64 Bit) erkennen und korrigieren und 2 Bit Fehler erkennen, aber nicht korrigieren. Bei 3 Bit oder mehr Bitfehlern ist das Verhalten abhängig vom Auftreten und dem Bitmuster. Das erstaunliche ist: ECC-RAM war lange Zeit Standard und werde erst in den Neunzigern aufgegeben.

Seit ein paar Jahren haben auch Festplatten das gleiche Problem. Genauer gesagt: die Bitfehlerrate ist gleich hoch geblieben, dich die Kapazität der Festplatten ist soweit angestiegen, dass man beim einmaligen Kopieren des gesamten Inhalts heute statistisch mit einem umgekippten Bit rechnen muss. Festplatten haben heute aber keine Korrektur der Bitfehler, obwohl es doch kein Problem wäre, hinter jeden 512-Byte-Block einen 64 Byte Block mit Korrekturinformationen anzuhängen. Man braucht bei EDAC 1 Bit Korrekturinformationen pro 8 Datenbits. Dann ist die Kapazität eben etwas kleiner so what? Die Industrie setzt auf andere Techniken der Benutzer soll zwei Festplatten einsetzen und den Inhalt spiegeln oder Parity Informationen auf eine weitere Festplatte scheiben (Raid 5). Das Problem ist nur, dass man so nicht feststellen kann, welches Bit verfälscht ist. Die Technologie ist auch dafür gedacht, dass eine komplette Platte ausfallen kann, was ja auch passieren kann. Bei den heutigen Preisen für Festplatten wäre es sicher kein Problem, beide Technologien zu nutzen. Die meisten PC werden heute noch mit 0,5 oder 1 TB Platten ausgeliefert, also einer Kapazität, die seit 2009 existiert. Entsprechend billig sind sie heute geworden.

Diesselbe Technik kann man auch bei den Datenleitungen nehmen, wobei hier einfachere (schnellere) Techniken eingesetzt werden können, denn die Datenübertragung ist zeitkritischer und wenn ein Fehler auftritt, kann man einfach das Datenwort oder einen Block erneut übertragen.

Portabilität:

Das zweite und dritte betrifft nicht den ganzen PC, sondern nur Windows. Es gibt zwei Dinge, die mich ärgern, und die nicht nötig sind. Das eine ist das Windows nicht fähig ist, dauerhaft auf einem beweglichen Medium installiert zu werden. Genauer gesagt: Windows kann das. Seit Windows 8 gibt es Windows als portables System, das man auf einem USB-Stick installieren kann aber nur in der Enterpriseversion für Unternehmen. Bei allen andern Versionen kann man zwar von einem USB-Stick booten, aber nach einigen Wochen ist spätestens Schluss, weil ohne Registrierung dann Windows nicht mehr läuft und wenn man es zu oft registriert auch nicht. Vielleicht ändert sich das ja mit Windows 10, das ja umsonst sein soll und damit entfällt ja auch der Finanzielle Verlust durch Raubkopien der zu dieser Maßnahme führte. Das Problem ist ein ganz einfaches: Man hat ja nicht nur Windows selbst sondern nutzt auch viele Utilities, Anwendungsprogramme. Auf der Platte sind auch die ganzen Dokumente und der Archivierte Emailverkehr und die Kontakte. (Zumindest bei mir, ich speichere nicht in der Cloud) Schön wäre, wenn man das immer nutzen kann ohne alles neu zu installieren, vor allem wenn man beruflich an vielen PCs arbeiten muss. USB 3 Sticks sind auch schnell genug und haben die Kapazität. Zeit also das mal zu liefern. Life-Systeme gibt es bei Linux ja schon lange.

Monitore:

Das zweite ist die Art wie bei Monitoren skaliert wird. Ich sehe nicht besonders gut und habe daher die Skalierung auf 125% eingestellt. Damit sind die meisten Menüs genügend groß (auch hier gibt es Unterschiede sogar innerhalb von Programmfamilien) und Texte und Webseiten kann ich vergrößern. Nun liebäugele ich mit dem Ersetzen der beiden 24 Zoll Monitore durch einen UHD-Fernseher mit 40 oder 50 Zoll Größe und habe mal probeweise auf 150% hochgestellt alles größer, aber enorm unscharf. Es scheint als würde wirklich das Pixelmuster hochskaliert werden anstatt das man z.b. anstatt einer 8 Pt Schrift eine 12 Pt Schrift mit sauberen Fontmuster nimmt. Schlimmer: Ich muss ja nur die Beschriftungen hochskalieren, Symbole und Grafiken müssen nicht skaliert werden. In Windows 7 geht das nicht. Bei Windows XP konnte man noch die Menüschriftart selbst festlegen. Das geht nun nicht mehr.

Beim Monitor finde ich das 16×9 Format eine echte Verschlimmerung. Da ich vor allem lese und schreibe, brauche ich wenn schon dieses Format vorherrscht es im Hochformat. Klar gibt es drehbare Displays (Pivotfunktion) doch meistens sind sie erheblich teuerer und zudem wegen der Blickwinkelabhängigkeit der Displays auch nur gut lesbar, wenn man genau senkrecht draufschaut. Also entweder wird das Drehen (ohne Abhängigkeit vom Blickwinkel) Standard oder ihr denkt mal über quadratische Displays nach – davon hat auch der Anwender was. Bei gleicher Bildschirmfläche und Pixeldichte wäre ein quadratisches Display mit 24 Zoll Diagonale z.B. 18,4 x 18,4 Zoll groß und hätte 1673² Bildpunkte 35% mehr als beim 16:9 Format.

Mal sehen ob ich nochmals 30 Jahre warten muss bis das Standard ist. Aber wahrscheinlich nie. Eher wichtig ist es die Oberfläche dauernd zu überarbeiten.

Die mobile Version verlassen