Zeit für den nachhaltigen PC
Es musste mal so kommen, auch wenn es mehr als 30 Jahre nach dem ersten PC erst dazu kam: Die PC-Branche ist da angekommen wo andere Branchen auch sind , bei einer nur inkrementellen Verbesserung des Produktes. Wer heute einen PC neu kauft und sich die Datenblätter anschaut wird kaum Unterschiede zu vor vier Jahren sehen, da hatte mein aktueller PC z.B. folgende Ausstattung:
- Doppelkernprozessor mit 2,6 GHz
- 4 GB RAM
- 1 TB Festpatte
- DVD Brenner
Schaut man sich für den Preis (499 Euro) um, so wird man in wesentlichen nicht viel leistungsfähigere Hardware bekommen. weder Prozessorgeschwindigkeit, noch Speicherdichte noch Festplattenkapazität konnten so gesteigert werden wie in den vergangenen Jahren als sie sich alle zwei Jahre verdoppelten. Zeit wäre es für die Branche nun auf Nachhaltigkeit zu setzen. Das macht sie derzeit nicht, vielmehr gibt es nun mehr Rechner in schicken Gehäusen oder Bauformen als früher, z.B. um ihn hinter dem Monitor anzubringen (früher Unsinn, wenn der PC viel schneller veraltet ist als der Monitor) oder im Design eines HiFi Bausteins (macht auch nur Sinn, wenn er lange genutzt wird, denn seine HiFi Anlage tauscht man nicht alle 3-4 Jahre aus).
Was sich aber nicht geändert hat ist das Grundkonzeption den PC billig zu bauen, und das meine ich auch so. Meine drei letzten PC haben alle nach 4-5 Jahre das zeitliche gesegnet indem es immer mehr unerklärliche Hardwareabstürze, Windows mit Blue Screen oder ganz eingefroren gab. In der ct stand vor einigen Jahren, Hauptgrund für diese ausfälle seien Elektrolytkondensatoren die man auf dem Motherboard in Masse findet um die Spannungen für Prozessor und Speicher aus den angelieferten 3,3 5 und 12 V abzuleiten. Man sollte das Konzept überdenken. Entweder Festkörperkondensatoren einsetzen oder wenn das nicht geht das Risiko senken indem man die 12 V Spannung (wird glaube ich nur noch vom Floppy benötigt) weglässt und dafür eine niedrige Spannung die der Prozessor braucht so um die 1,2 bis 1,5 V einführt.
Das zweite ist die Datensicherheit. Hier ist es sogar schlimmer geworden. eine SATA-Festplatte für einen PC hat eine Fehlerrate von 1 Bit pro 1014 Bits. Das klingt toll, doch eine 4 TB Platte, die größte momentan erhältliche hat schon 3,2×1013 Bits. Wenn man den Inhalt dreimal kopiert hat (z.B. für ein Backup) so hat man statistisch das erste fehlerhafte Bit. Abhilfe geht – es gibt ja auch SATA Platten für Server mit einem fehlerhaften Bit pro 1016 bis 1017 übertragenen Bits, nur kosten die eben mehr. Trotzdem hat eine Festplatte eine begrenzte Lebensdauer und bei einem privaten PC scheint man sich darum einen Teufel zu scheren. Früher war das noch einfach. Als man mit Disketten hantierte, konnte man die einfach kopieren – na ja einfach wenn man nicht die Reihenfolge verwechselte. Doch wenn man auch Diskjockey war, das war in 1-2 Minuten erledigt und auf eine Diskette passte eine Menge Text drauf – damals sammelte man ja nicht so viele Daten, sondern musste die noch selbst alle eingeben…
Später bei den ersten Festplatten nutzte man Disketten als Backup, was aber so ab 20 Stück zu umständlich wurde. Seitdem war jedes bezahlbare Backupmedium nicht von Dauer. Die bezahlbaren Halbzoll-Streamer hatten bald nicht genügend Kapazität, die CD und DVD erweisen sich auch bald als zu klein. Da eine Festplatte irgendwann aber mal kaputt geht muss ein Backup her (ich rede hier nur zur Absicherung gegen Hardwareausfälle, nicht gegen Viren und Fehler des Users). Derzeit kann das nur eine zweite Festplatte sein, die automatisch gespiegelt wird. Da dann viele Daten bewegt werden ist die Problematik der hohen Bitfehlerate noch größer. Gegen das hilft eine andere Kodierung der Daten, indem man Prüfsummen oder redundante Bits einführt um bei einem Fehler diese zu korrigieren, das geht aber nur wenn man das gleich beim Schreiben macht, denn sonst können ja schon die Daten verfälscht werden, also man gleicht die geschriebenen Daten mit denen im Puffer ab.
Eventuell wird die Cloud das überflüssig machen. Doch zumindest GoogleDrive und Skydrive, die ich ausprobiert habe sind keine Lösung nicht mal nur für Benutzerdaten. Beide erwarten dass man einen eigenen Ordner anlegt, anstatt dass man den schon vorhandenen Ordner benutzt soll man nun Daten alle doppelt haben. Weiterhin ist nicht beeinflussbar dass die Daten sofort in der Cloud landen, auch wenn man die Bandbreite dafür hat. Doch wenn man die Mängel abstellt kann man sicher daran denken, das man zumindest für die wichtigen Benutzerdaten die Cloud nutzt. Immerhin gibt es ja beim Betriebssystem eine gute eingebaute Sicherung. Die habe ich bei meinem Bruder, der sich die Mühe gibt alle Viren die es im Netz gibt, zu suchen beim letzten Totalausfall genutzt und so eine Menge Arbeit gespart.
Das leitet über zum nächsten Problem: Die Daten aus dem Speicher müssen natürlich auch korrekt sein. Die Lösung ist dafür schon alt – Prüfbits. So was hatten NASA Rechner in den Sechzigern, Cray Großrechner in den Siebzigern und Server haben den ECC Speicher auch – einziger unterschied: 9 anstatt 8 Chips pro Modul und eine kleine Elektronikschaltung. Er ist etwas teurer, aber das war’s schon.
Natürlich wird der PC teurer – das Motherboard etwas bisschen, der ECC Speicher kostet auch etwas mehr und die zweite Festplatte auch, aber ich denke das sind bei einem 500 Euro PC dann vielleicht 150 Euro mehr – maximal, dafür hätte er das Potenzial so lange zu leben wie andere Geräte der Unterhaltungselektronik. Dazu gehört natürlich auch ein Konzept das nachhaltiger ist, also es ermöglicht etwas auch nach Jahren auszutauschen, das geht mit Festplatten, Brennern, aber bei Speichern wechseln die Sockel dauernd ab und bei Prozessoren in noch schnellerem Tempo, selten ist ein Motherboard länger als 2 Jahre lang lieferbar.
Meiner Ansicht nach wird es dazu aber nicht kommen. Selbst teure Mediacenter-PC die über 1000 Euro kosten sind nicht anders aufgebaut als andere PC. Stattdessen hat sich die Branche einem anderen, lukrativen Markt zugewandt, den mobilen Geräten wie Smartphones oder Tabletts. Die werden in noch schnelleren Zyklen als PC’s verkauft und bringen noch mehr Geld, denn die Leute legen dafür mehr auf den Tisch.
Naja, irgendwann wird auch der Markt für Tablets und Smartphones gesättigt sein…
Mich hat es jetzt das erstemal auch erwischt. 2 Jahre und 6 Monate später nach den Kauf hat sich mein Samsung Netbook verabschiedet. Das erste Gerät das ich in mein Leben neu gekauft habe und hat einen kürzeren Lebenszyklus als die guten alten Gerätschaften. Naja bei Ebay wieder gebraucht gekauft und hoffen. Neugerät definitiv nicht mehr, dafür ist mir das Geld einfach zu schade.
Smartphone und Tablet als Alternative? Ich weiß nicht ein Smartphone ist schon angenehm gerade unterwegs besser als mal eben das Netbook aus der Tasche zu kramen und mit USB Stick versuchen eine Verbindung aufzubauen. Aber ein Tablet kann ich nichts abgewinnen. Ich habe mir auch eines gekauft, gebraucht mal zum testen. Also den Hype um die Dinger kann ich einfach nicht nachvollziehen. Sicher ist es angenehmer damit unterwegs mal eben zu lesen aber für mehr taucht das ganze auch nicht. Man kann mit Office nicht richtig arbeiten, der Touch Coup ist für mich eher eine Qual als eine Wahl und selbst normales auf den Server mal eben was erledigen ist eine Qual. Tablet ist für mich nur dann eine Wahl wenn ich Linux vollwertig installieren kann und nutzen kann. Ich habe vor ein paar Tagen eine Nachricht zum Thema Tablet im Eigenbau mit Raspberry PI gesehen. Ich werde mir wohl mal ein Pi besorgen und mal schauen wie es damit aussieht. Vielleicht wird das die Alternative sein.
Aber für die meisten Menschen scheinen die Tablets ausreichend zu sein. Ich bekomme zumindest von potenziellen Kunden die früher oft anriefen, weil der PC nicht wollte immer wenige Anrufe. Naja Facebook, Email, Whatsapp, Skype und andere Portale reichen die Tablets auf jeden Fall. So gesehen kann man sich Sorgen um den PC Markt machen.
Mfg
Zu deinem Punkt mit den Lesefehlern bei Festplatten:
Genau dafür ist ja das ZFS Dateisystem gedacht. Dies Speichert Prüfsummen zu jedem einzelnem Block und stellt die Daten in einem RAID verbund automatisch beim lesen wieder her. Funktioniert das nicht, ist aber im Gegensatz zu einem RAID nicht alles Kaputt. ZFS zeigt stattdessen die betroffenen Dateien an, die man aus einem Backup wiederherstellen kann (oder löschen kann). Zumindest weiß man was im Zweifel kaputt ist.
Für mehr Nachhaltigkeit sollte man auch die Softwareseite bedenken.
Im Frühjahr wird Windows XP endgültig abgekündigt.
Da ich die Rechner kommerziell nutze muss ich zwangsläufig umsteigen, auf Windows 8.
Für meine Drucker gibt es da aktualisierte Treiber. Für den Scanner nicht. Das Gerät ist zwar auch schon 8 Jahre alt, aber noch top in Schuss, da es nur selten gebraucht wird, wenn, dann aber unbedingt.
Ich muss das Teil also wegwerfen, wie vermutlich zigtausende andere auch.
Mit ein paar Zeilen aktualisierter Treibersoftware wäre das zu verhindern…
Es wäre schon viel erreicht, wenn man die Hersteller dazu vergattern könnte, Treiber für die jeweils aktuellen Windows Versionen vorzuhalten.
@Peter Langer
Ich gehe bei einem nachhaltigen Produkt auch davon aus, dass man nicht andauernd was neues installiert, zumindest das Betriebssystem sollte das gleiche bleiben zumindest ist es bei mir so. Bei den neueren Geräten kann der Nutzer ja gar nichts selbst wechseln oder es erlischt die Garantie („Routing“) und Updates gibt es meist nur kurzev Zeit.
Ich finde das auch in Ordnung: ich kaufe woanders ja auch eine Ware so wie sie ist und hoffe nicht dass sie später was anderes oder mehr kann. Windows xp kam 2001 raus und ist nun 13 Jahre alt, das auslaufen des Supports finde ich als natürlich.
Die Leute sind nicht mehr gewillt etwas reparieren zu lassen.
Gerade die Elkogeschichte sind nur Werte von vielleicht 10 Euro nur kommen dann Lohnkosten von vielleicht 100 nochmal drauf
> Es wäre schon viel erreicht, wenn man die Hersteller dazu vergattern könnte, Treiber für die jeweils aktuellen Windows Versionen vorzuhalten.
Das setzt allerdings voraus, daß es die Hersteller überhaupt noch gibt.
Ein anderes Problem sind bei neuen Geräten fehlende Treiber für ältere Betriebssysteme. Wobei man mal ganz gemein fragen muß: Warum kann man ein neues Windows nicht so bauen, daß die alten Treiber damit funktionieren? Bei anderen Programmen geht das ja schließlich auch.
Ein anderes Problem sind noch funktionierende Geräte mit einem Anschluß, den es in neueren Geräten nicht mehr gibt. Beispiel: Parallelport für Drucker. Seit einiger Zeit ist der auf keinen Boards mehr zu finden. Und schon muß zu dem neuen Rechner auch ein neuer Drucker gekauft werden. Die Hersteller freut es, die Kunden nicht.
Ich habe aktuell das Problem, daß es für meinen Diascanner keinen Treiber für Windows 7 gibt (zumindest hab ich noch keinen gefunden). Also entweder wegwerfen (viel zu teuer und schade drum), mein XP behalten (ist das eine gute Idee?) oder irnkwie mit Win 7 tricksen (dazu bin ich zu doof).
Bei mir läuft ein Windows Xp Programm an das ich mich gewöhnt habe in einer virtuellen Maschine, im Prinzip müsste das auch mit dem Discanner gehen. Davon gibt es einige auch umsonst im Netz (ich nehme virtualbox, aber auch Vmware player soll gut sein, windows 7 ab prof bringt auch den Windoews xp Mode mit, der nichts anderes ist als der Microsoft virtual pc.
Da ab April es keinen Support mehr für Xp gibt, auch keine sicherheitslücken mehr geschlossen werden sollte man wenn man bei xp bleiben will vielleicht einen alten Pc nur für den Scanner einsetzen und damit nicht ins Netz gehen.
Ach ja, das Problem mit den Anschlüssen…
Ich hab für meinen Drucker (HP Desk-Jet 550c; ~20 Jahre alt und funktioniert immer noch!) eine Parallelportkarte in den Rechner eingebaut, nachdem es mit einem USB-to-Parallelport Adapter nicht funktionierte.
@Peter Langer: Wenn es sich Platzmässig machen lässt, würde ich einen eigenen PC, auf dem dann ausser XP und der Scannersoftware nichts weiter läuft, dazu stellen. Darauf dann sämtliche Netzwerktreiber deinstallieren und sofern noch möglich, die Netzwerkkarte rauswerfen und/oder die Netzwerkhardware im BIOS deaktivieren. Der Datentransfer wird dann zwar etwas umständlich, aber wenn der Scanner eh nur selten benötigt wird, würde mich das nicht stören. Ich halte das jedenfalls für die bessere Lösung, als noch funktionierende Hardware wegwerfen zu müssen.
Oder auch mal die Sache mit der VM ausprobieren…
@Anja: Wie schon dem Peter Langer vorgeschlagen, evtl. einen Zweitrechner dazu stellen, der dann nur noch für’s scannen benutzt wird, wenn das mit der virtuellen Maschiene nix wird.
@Bernd: Natürlich ist es Sinnvoll, alte Produkte irgendwann mal durch Neue zu ersetzen, aber über die Lebenszyklen kann man bekanntlich unterschiedlicher Meinung sein. Und ich denke, wenn sich an der Hardware nicht mehr grundlegend viel ändern wird, was bei Desktop-PCs wohl bald der Fall sein wird, dann kann man auch die Produktzyklen sowohl für die Hardware, als auch für’s Betriebssystem und weitere Software erhöhen.
Davon abgesehen sind manche Produktzyklen von gerade mal 3 bis 6 Monaten für meinen Geschmack einfach nur eine Frechheit, weil Geldschneiderei. Ich meine, dass auch bei Computerhardware Produktzyklen von mindestens 5 Jahren möglich sein müssen!
Moin,
zur Thematik Backup: Eine Kopie ist !KEIN! Backup, erst recht nicht wenn es Bitfehler auf dem Original geht. Was passiert bei einem rsync oder einer DD Kopie, wenn das Original kaputt ist? Die Kopie ist danach auch kaputt. Deswegen Backup !IMMER! inkrementell. Dann können neue Fehler die alten korrekten Daten nicht überschreiben.
Zur Thematik Treiber: Entweder wird die Hardware von Linux unterstützt, oder ich kaufe sie nicht. Linux ist in so weit Nachhaltig, als dass auch alle Treiber für Uralthardware noch im aktuellsten Kernel drin sind.
Zur Thematik PC: Vor einem Jahr brauchte ich im März einen neuen PC. Für Euro400 gabs nen AMD-FX4100 QuadCore mit 3600MHz, und 32GB RAM. RAM ist so ziemlich das einzige das in den letzten Jahren noch billiger geworden ist.
ciao,Michael
@Michael K: Dafuer koennen Dir die alten Dateien in Deinem Backup, die nie ueberschrieben werden, stillschweigend verrotten. Das passiert nicht, wenn sie staendig komplett neu geschrieben werden.
Moin,
> Dafuer koennen Dir die alten Dateien in Deinem Backup, die nie ueberschrieben werden, stillschweigend verrotten. Das passiert nicht, wenn sie staendig komplett neu geschrieben werden.
deswegen hat man drei Backups die wöchentlich rotieren: Eines Online, eines im Regal, und eines im Bankschließfach.
Und wenn ein Backup online geht, wird die gesammte Backupplatte einmal roh gelesen. Ja das kostet Zeit, aber das macht nix, weil das eh im Hintergrund per Cron läuft. Und ja, das verbraucht viel Backup-Platten, aber Platten sind billig, wohingegen Datenverlust teuer sein kann.
ciao,Michael
PS: Und natürlich sollte man darauf achten gute Platten zu kaufen, z.b.:
Hitachi HDS5C3030ALA630 und HDS723030ALA640 haben eine Badblockwahrscheinlichkeit von 0.9% pro Jahr, wohingegen Seagate Barracuda Green mit einer Badblockwahrscheinlichkeit von 120.0% pro Jahr ausfällt. Allgemein ist Seagate schott, und war es schon immer. Die besseren Seagate Platten haben eine Ausfallwahrscheinlichkeit von ’nur‘ 10% pro Jahr. Das Schlechte ist dem Guten Feind, und so konnte Seagate einige andere Hersteller, die besser waren, aufkaufen.
Diese Statistik stammt nicht von mir, sondern von Backblaze, einem Cloud Backup as a Service Provider, der billige Desktopplatten im RAID einsetzt.
ciao,Michael
In den letzten Jahren sind vor allem die Preise für RAM und Flash-Speicher gefallen. Wer keine große Mediensammlung hat, sollte sich echt überlegen, SSD statt Platte als primäres Speichermedium einzubauen. Und wer eine große Mediensammlung hat, sollte sich überlegen, dennoch die SSD für System und Anwendungen zu verwenden, und die Mediendaten z.B. auf externe Platten auszulagern. Wer noch „klassische“ Desktop-PCs verwendet, kann auch problemlos ausreichend viele Platten einbauen.
DVD Brenner braucht man nicht mehr. Um Inhalte zu einem Medienabspieler am Fernseher zu übertragen, reicht heute meist ein USB-Stick, weil die Mehrzahl der DVD-Player oder Smart-TVs auch direkt vom Stick lesen können. Für alle anderen Zwecke sind USB-Sticks und externe Platten erst recht gebrannten DVDs überlegen.
Die Taktraten der Prozessoren haben sich in den letzten Jahren nicht erhöht, aber die Leistung pro Takt. Schuld daran sind höhere Parallelität der internen Verarbeitungseinheiten, kürzere Recovery-Zeiten nach Pipeline Stalls (z.B. branch-misprediction), größere Caches, größere Transferraten zum Hauptspeicher. Das gilt für AMD und Intel gleichermaßen, wobei AMD derzeit (leider) mit gewissem Abstand hinterherhinkt.
Auch muss man die PC-Hersteller loben, dass die Komponenten tatsächlich besser geworden sind. Hier in der Firma werden die PCs immer länger eingesetzt UND die Ausfallraten gehen dennoch nach unten. Insbesondere Netzteile galten bei uns zeitweilig als „Verbrauchsmaterial“, von dem man immer ein bis zwei auf Vorrat im Schrank liegen haben sollte, damit man schnell reagieren kann, wenn sich mal wieder eins abmeldet. Doch die beiden zuletzt vor drei Jahren angeschafften Ersatznetzteile vergammeln nun im Schrank. Nein, da bin ich nicht böse drum.
Auch die Elektrolytkondensatoren auf den Boards scheinen nun länger zu halten – ob die Gehäuse nun gasdichter sind oder Elektrolyten mit niedrigerem Dampfdruck eingesetzt werden, oder beim Board-Design darauf geachtet wird, dass die Elkos nicht so nahe an anderen Teilen sitzen, die heiß werden – es scheint hier Verbesserungen gegeben zu haben.
Generell bewegt sich auch sonst viel in die richtige Richtung: Der idle-Stromverbrauch sinkt, die Effizienz von Netzteilen und Spannungswandlern steigt, und es werden heute weniger Schadstoffe verbaut als früher. Klar könnte vieles noch etwas schneller gehen. Aber das würde die PCs dann auch teurer machen.
Kai
Es gibt auch Elektrolytkondensatoren, die bis zu 15 Jahre halten.
Es gibt auch welche die 2 Jahre mit 99% gewährleistung durchhalten. Aber zwischen dem 4. und 6 Jahrmit einer sehr hohen Wahrscheinlichkeit ausfallen.
Diese Kondensatoren sind sogar teurer wie die Normalen.
Mein Arbeitgeber hat vor 3 Jahren versehentlich diese Kondensatoren auf Steuerplatinen eingesetzt. Die Folgen war ein sehr teures austauschprogramm, da wir 10 Jahre Gewährleistung geben.
Zu dem Fehler kam es, da der Kondensator mit dem eingeprägten Obsoleszenzdesign zu den Topsellern unseres Zulieferer gehörte und der langlebige Kondensator aus dem Warenkorb verschwunden war, da es auf dem Markt keinen bedarf fürsolche gibt.