Ideen für den PC
Die PC Entwicklung nähert sich meiner Ansicht nach und mehr dem, wo andere Industrien längst angekommen sind – sie verbessert sich mehr evolutionär, als dass es revolutionäre Änderungen gibt. Lange Zeit gab es den immer größeren Hunger nach mehr: Mehr Rechenleistung, mehr Arbeitsspeicher, mehr Plattenspeicher, getrieben von grafisch immer aufwendigeren Betriebssystemen und dem Einzug von bewegten Medien auf den PC – der PC wurde zum Videorekorder. Doch seit ein paar Jahren sagen immer mehr „it’s good enough“, ja teilweise geht der Trend zurück zu weniger Rechenleistung, aber kompakter wie bei den Netbooks und Nettops mit Atomprozessor, also zu einer Prozessorleistung wie vor 5 Jahren.
Bei den Mehrkernprozessoren zeigt sich recht deutlich das grundsätzliche Problem von Intel und AMD: Die Taktfrequenz steht seit etwa Ende 2003 bei rund 3 GHz. Die früher übliche Steigerung der Taktfrequenz um die Geschwindigkeit des PC zu steigern (der Ur-Intel 8086 schaffte 1978 nur 5 MHz!) klappt nicht mehr. Ein Büro-PC profitiert aber nicht von mehr Kernen, die durch kleinere Strukturen möglich sind. Der zweite Kern brachte die Abschaffung der Sanduhr – zumindest wenn ein Prozess viel Rechenleistung schluckt, so wie ein Virenscan oder der Duden Korrektor. Aber auch bei einem Zweiprozessorsystem steht bei mir heute ab und an der PC: Wenn der wöchtliche Festplattenscan des Computers ansteht oder ein OTR Video dekodiert wird. Nicht weil die Kerne ausgelastet wären, sondern weil die Festplatte rödelt wie wahnsinnig. Mehr Kerne bringen nur bedingt etwas. Natürlich wird die Software besser. Browser können nun pro Tab einen Prozess anlegen und so auch mehr Kerne beschäftigen. aber wie lange denn? Nach einer Sekunde steht das Tab und dann dreht der Kern wieder Däumchen.
Natürlich gibt es Software die viele Kerne beschäftigt. Bei der ct‘ kann man dann die Geschwindigkeit des Renderns mit Cinema3D oder für das Kompilieren des Linux Kernels nachlesen. Doch wie viele Anwender brauchen das? Bei den meisten wartet der PC meistens – bis der Benutzer die Browserseite gelesen hat, bis der nächste Tastendruck im Office erfolgt. Selbst HD Video ist heute mit zwei Kernen dekodierbar und gerade diese Anwendungen wie Videokodierung / Transkodierung ist sehr viel besser von einer GPU, dem Prozessor einer Graphikkarte durchführbar. Selbst GPU von Chipsatzgrafik kann das heute schon.
Bleiben noch die Gamer. Doch selbst diese Zielgruppe, die viel Geld für Hardware ausgibt profitiert vor allem von einer schnellen GPU und hier sind schnelle Zweikernprozessoren schneller als langsame Vier- oder Sechskernprozessoren. Intel hat das erkannt und den 256 Kernprozessor Larrabee beerdigt. Stattdessen offerieren nun Vier- und Achtkernprozessoren die Möglichkeit einzelne Kerne zu übertakten, wenn die anderen schlafen. Im Prinzip werden die dann nur als Kühlkörper für die übertakteten Kerne genutzt.
Ich sehe hier eine Chance, zwei Dinge zu ändern, die mich schon lange ärgern – den Formfaktor des PC und den Kabelverhau. Fangen wir mit dem ersten an. Mein PC ist eine typische schwere Blechkiste neben dem Schreibtisch. Da passen vier 5,25″ und vier 3,5″ Laufwerke rein. Dazu zwei PCI-E und drei PCI Karten. Ich wage zu behaupten, das in 90 % der Computer maximal zwei Festplatten, ein optisches Laufwerk und eine Grafikkarte stecken. Ein PC der nur für das Platz bietet könnte viel kompakter gebaut werden. Bevor sie nun sagen: Das gibt es schon und nennt sich „Barebone“. Ja, aber das ist nicht das, was ich meine. Was ich gerne hätte und bestimmt auch andere, ist ein PC, der flach ist und unter den Monitor passt, als Ersatz für den Monitorfuss. Dort ist er einfach zugänglich, ohne Verrenkungen und die Wege sind kurz. Das scheitert heute noch an den riesigen Kühlkörpern. Okay, die sind unnötig, wenn man Notebook CPU’s einbaut, aber das ist teuer. Wenn aber die Entwicklung soweit geht, dass es heute 4-8 Kerne pro CPU gibt und nur zwei richtig beschäftigt werden, dann wäre doch auch eine CPU mit nur zwei Kernen möglich, geringerem Stromverbrauch und damit einem kleineren Kühlkörper. Damit wären auch kompakte Rechner möglich.
Das nächste ist der Kabelverhau. Okay da bin ich auch ein bisschen selber dran schuld. Ich habe einige USB Platten, weil ich mich bei dem Umstieg nicht von den alten Festplatten trennen wollte. Aber auch hier ist System drin: Warum brauche ich für jede Platte noch ein Netzteil? Ginge es nicht die Leistung auch übers Datenkabel zu transferieren. Selbst dann: Muss das Netzteil immer extern sein und warum ist es nicht im Gehäuse integriert? Denn anders als die Platte ist es nicht abschaltbar. Sperrig ist es sowieso. Aber es ginge auch anders. Mein Zukunfts-PC für unter den Monitor hat die Möglichkeit Platten extern anzuschließen – mit kurzen Kabeln und Stromversorgung durch diese. Man legt sie dann einfach auf den PC oder stapelt sie. USB Anschlüsse sind nun direkt vor mir und leichter zugänglich genauso wie Speicherkartenanschlüsse. Die Kabel sind auch reduzierbar durch kombinierte VGA+Soundkabel (Anschluss der Lautsprecher an denn Monitor oder Integration in die Monitore).
Für Tastatur und Maus braucht man keine Kabel – aber auch keine Batterien. Eigentlich müssten kleine interne Akkus reichen – Wir klopfen dauernd auf die Tastatur, schubsen die Maus herum – wenn man einen Teil dieser Bewegungsenergie zum Betrieb der Elektronik nutzt und in einem Akku speichert, dann braucht man keine Batterien.
Nun gibt es natürlich schon Multimedia PC’s die kompakt sind und schön, für die Integration ins Stereorack, die dem entsprechen. Aber die kosten dann auch gleich 1.000 Euro oder mehr. Ich zahle sicher für eine unverwechselbare Maschine, die man auch immer längere Zeit nutzt mehr, aber nicht gleich das doppelte. Das ist ein letzter Punkt der einziehen wird. Die Rechner werden wieder optisch gefälliger werden. Sie verschwinden nun nicht mehr unter dem Schreibtisch sondern man sieht sie vor sich. Komischerweise muss man bei Computern für schönes Design mehr zahlen – bei den meisten anderen Konsumerelektronikgeräten wie Kompaktanlagen, Fernseher etc. dagegen nicht. Und ich denke auch, wenn die Produkte sich nicht mehr durch mehr Kerne verkaufen und die Leute immer länger einen PC benutzen, wird das Design wieder ein viel wichtigeres Verkaufsargument werden.
Der letzte Punkt den ich habe, ist die Tastatur. Ich habe mal geschaut nach einer Tastatur ohne Keypad, also den rechten Teil der Tastatur – ich hätte 8-9 cm mehr Platz und ich käme schneller an die Maus und müsste meinen Arm weniger weit strecken. Haben sie mal versucht eine solche zu kaufen? Es gibt sie nicht auf dem Markt. Es gibt breitere Tastaturen mit noch mehr Tasten, es gibt separate Keypads und es gibt kompakte Tastaturen – nur fehlt da dann auch der wichtige Cursorblock, der nicht wegfallen oder verschoben werden soll. Mich wundert, das ich wohl der einzige bin, der keine Verwendung für das Keypad hat. (Sicher wichtig für Leute die viel mit Excel arbeiten, aber eben nicht alle).
Mal sehen, was die Zukunft bringt.
So wieder ein persönlicher Musiktipp heute. Es ist „We will rock you“. Das erinnert mich an ein Ereignis aus dem Jahr 1978 oder 79, so genau habe ich es nicht mehr im Kopf. Wir machten einen Klassenausflug nach Südtirol und die Busfahrt dahin war lang. Gottseidank hatte Jens nicht nur eine Schallplatte von Queen dabei, sondern auch eine Kasette mit den Liedern und wir hatten einen sehr toleranten Busfahrer, der die Kassette abspielte,.“We will rock you“ haben wir rauf und runter gespielt, es ist das ideale Lied wenn man sonst nicht viel tun kann. Mitklatschen und mit den Füßen trommeln kann man aber auch auf dem Bussitz und der Text ist auch leicht merkbar. Das hat sich mir ins Gedächtnis geprägt und der Rhythmus zieht mit.
Hallo Bernd,
Die Idee die Bewegungsenergie von Tastatur und Maus zu nutzen ist nicht wirklich neu, und wurde mal vor langer Zeit von einer Computerzeitschrift aufgenommen und berechnet. Das Ergebnis war erstaunlich, die Energieausbeute war selbst bei einem Wirkungsgrad von 100% schlichtweg einfach nur homöopathisch.
Die Sache mit den Netzteilen ist teilweise auch Strategie der Hersteller. Zum einen kann man dann in Länder mit unterschiedlichen Voltzahlen aus der Steckdose trotzdem das gleiche Gerät liefern, man muss nur ein anderes Netzteil dazulegen. Zum anderen sind die Hersteller bestrebt möglichst unterschiedliche und inkompatible Netzteile und Anschlüsse herzustellen, um dem Kunden ein möglicht teures Ersatz- Netzteil aufzwängen zu können (Bestes Beispiel sind da Handys). Hat für den Kunden letztlich nur einen einzigen Vorteil, wenn das Netzteil kaputt geht kann er das recht schnell austauschen, bei integrierten Netzteilen siehts da richtig schlecht aus.
Nette Grüße vom BauBraun
Hi,
nette Ideen, sehr wahrscheinlich kommt das eine oder andere noch. Aber mal im einzelnen:
So ein Modell wie den Ur-IBM-PC, der ja mit dem Monitor oben drauf auf dem Schreibtisch stand, dürfte je nach Anwendungsfall sicherlich Sinnvoll sein, aber ich will so ein Teil beispielsweise gar nicht haben. Ich bin im Gegenteil froh über mein Big-Tower Gehäuse, wo ich alles mögliche zusätzlich einbauen kann. Aber das ist wie gesagt meine Ansicht.
Was den Kabelsalat angeht, der stört mich auch nicht sooo sehr. Im übrigen wurde da doch durch die Einführung von USB schon eine Menge reduziert.
Was die externen Festplatten angeht, so bin ich mir nicht sicher, ob die mit den 500mA auskommen, die die Schnittstelle liefern kann. Wahrscheinlich erst dann, wenn die Bezeichnung Festplatte nur noch historisch ist, die Datenspeicherung aber komplett wie bei Sticks abläuft; auch bei höchsten Kapazitäten.
Zum externen Netzteil hat sich BauBraun ja schon geäussert. Allerdings könnte man es wirklich auch so machen, dass das Netzteil im Gehäuse integriert ist, und auch mit abgeschaltet wird. Oder: Du nimmst ein Kombigehäuse, wo man mehrere Festplatten einbauen kann, die dann alle über das Selbe Kabel an den Rechner angeschlossen sind. – Also formal schon eine Art Fileserver.
Wenn Maus und Tastatur ohne Kabel sind, ist immer Funktechnik im Spiel. Und wenn es sich dabei um Bluetooth oder andere im GHz-bereich arbeitende Funktechnik handelt, dann will ich sie auch nicht haben, weil mir das zu viel EM-Strahlung bedeutet. Bliebe noch Infrarot, was es ja auch schon gibt/gab, oder ich bleibe halt beim Kabel.
Ach ja, die Tastatur ohne Keypad wirst du Dir dann wohl selber bauen dürfen. 😉 – Selbst ich, obwohl ich eher wenig mit Tabellenkalkulationen arbeite, benutz den 10er-Block sehr gerne. – Und wenn ich mich nicht irre, war es in den 80ern durchaus auch ein Argument für die Schneider CPC-Rechner, das sie einen solchen 10er-Block hatten, im Gegensatz zu C64 & Co.
Soweit mal mein Senf dazu.
Hans
Bei den Netzteilen für Computerzubehör gilt das nicht. Ich habe drei 3,5″ Platten die Netzteile brauchen und einen Videokonverter – ich kann jedes der Teile an ein beliebiges Netzteil dranhängen weil alle denselben 9 poligen Anschluss am Gerät haben.
Zum Kabelsalat: Der wurde durch USB erst bei mir richtig dick, denn vorher konnte man nur Tastatur, Drucker und Modem direkt an den PC anschließen. Ich habe mal alle USB Geräte gezählt die ich habe und komme auf 14… Davon sind derzeit aber nur 8 angeschlossen. Dgitalkameras , MP3 Player und USB Stick habe ich sogar außen vorgelassen.
IR Übertragung ginge meiner Ansicht nach zumindest für Tastatur und Maus, also niedrige Datenraten. Ansonsten möchte ich auch nicht für wenige Meter Funk benutzen. Es geht wie ich schrieb mehr darum Strom/Datenleitungen zusammenzufassen und durch geschickte Platzierung von Geräten (z.B. Festplatten auf dem Gehäuse des PC) die Kabelwege kurz zu halten.
Beim CPC-464 war das Argument nicht der 10er Block sondern die echten Cursurtasten, sogar mit Copy Cursor!
Betreffend Tastaturen:
Schauen Sie sich doch mal die folgenden Tastaturen an: Cherry G84-4100 und G84-5400. Ist das was Sie meinen?
Alternativ gibt es noch das „Happy Hacking Keyboard“.
Vorsicht, die Lite Version davon hat nicht einmal Cursor Keys.
Tschüß
Andreas
Hi,
mir ist noch was eingefallen, das ich begrüssen würde, wenn es sich mal (wieder) durchsetzen würde: nämlich ein Betriebssystem samt grafischer Nutzeroberfläche, das komplett im ROM residiert, und von dort aus auch arbeitet, so das der PC, egal wieviel zusätzlicher Hardware drin verbaut ist, spätestens 5 Sekunden nach dem Einschalten vollständig Einsatzbereit ist, und man nicht erst einen ellen langen Bootvorgang abwarten muss. Das war damals bei den mir bekannten Heimcomputern so, und in den 90ern gab es den supergenialen RISC-PC der britischen Firma Acorn, bei dem das auch so war.
Das setzt bei Zusatzhardware zwar eine umfangreichere Vorarbeit bei Design und Entwicklung voraus, insbesondere müssen die Treiber von Zusatzkarten ebenfalls auf einem ROM residieren, und sich möglicherweise an ein paar mehr Konventionen halten, als wenn sie nachgeladen werden, aber das ist technisch gesehen keine Hürde. Als eine wirkliche Hürde könnte sich erweisen, dass sie sich dadurch nicht ganz so leicht updaten lassen. Aber da meine ich, dass wenn man von Anfang an sauberer arbeitet, am Ende auch ein besseres Produkt heraus kommt, wo nicht mehr so viel dran nachgebessert werden muss.
Hans
Es gibt doch heute schon genug externe Festplatten die ausschließlich über USB mit Strom versorgt werden.
Schöne Grüße
@Markus: Nur 2,5″ Platten. Die 10-15 W die eine 3,5″ Platte braucht geht nicht über USB (5 V , 500 mA).
@Hans: Es gibt zahlreiche Betriebssysteme in BIOS ROMS. Die ct hat sie mal getestet fand sie aber alle nicht so toll. Entweder waren sie veraltet oder brauchten zum Booten fast genauso lange wie der PC von der Festplatte.
Die Sache mit dem ROM hat in Internetzeiten wohl überlebt. Selbst wenn man mit einem Browser zufrieden ist der einige Jahre alt sind, so müssen doch dessen Sicherheitslücken geschlossen werden und das geht im ROM nicht so gut.
Eine kleine SSD wäre eine Alternative. Aber dann denke ich werden die Leute auch das gleiche Feeling wie bei Windows haben wollen.
@Andreas: Die Cherrys sind genau das was ich meine: Dann ist eben nicht nur der Ziffernblock weg sondern auch die Cursortasten und einf/pos etc gleich an die Tastatur herangeklatscht worden – das wollte ich schon weiterhin separat haben.
Zum schnellen Zahlen eingeben ist der Numblock echt unabdinglich, und ich benutze Excel eigentlich nie. Und ich verwende ihn auch für Shortcuts für Maya. Man kann gar nicht genug Tasten auf dem Keyboard haben (ok, bis auf diese blöden Shutdown-Tasten. Die hab ich rausgerissen). Der Amiga 600 wär was für dich gewesen. Der wurde wegen dem fehlenden Numblock auch immer etwas stiefmütterlich behandelt 😉
Hi,
bin mir nicht sicher, aber ich glaube, die c’t hat auch nie etwas über den Acorn RISC-PC geschrieben… – Korrektur: Sie haben schon, aber nicht sehr viel. Und alle 12 c’t-Artikel, die die Suchemaschiene bei heise online liefert, sind kostenpflichtig. Daher kann ich nicht prüfen, was sie geschrieben haben. Jedenfalls war es so, das ich den Rechner mal auf ’ner Hobbytronik in Dortmund in Aktion gesehen habe, und er mich voll begeistert hat. Wenn ich damals das nötige Geld gehabt hätte, dann hätte ich mir den Rechner umgehend gekauft. So bleibt er ein unerfüllter Traum; – und das Einzige, was von dem Hersteller noch existiert, ist die Prozessordesignschmiede ARM.
Ach ja, und ein „BIOS ROM“ ist nur ein Teil des BS in der PC Architektur. Ich meine aber, dass das komplette Betriebssystem samt GUI ins ROM sollte. – Wenn das System dadurch zu langsam wird, kann man die Geschwindigkeitsrelevanten Teile ja immer noch aus dem ROM ins RAM kopieren, aber das kann dann auch als Hintergrundprozess stattfinden, da nicht das komplette System kopiert werden muss.
Ein (Web)Browser ist allerdings eine Anwendung, die nicht ins ROM braucht, sondern ganz gewöhnlich auf einer Festplatte abgelegt bzw. installiert werden kann. Ebenso können Officepakete, CAD-Software, Compiler plus IDEs und was es da sonst so noch alles gibt, auf der Festplatte verbleiben. Dann hat man es dabei auch mit den (Sicherheits)updates leichter.
Nur die Treiber für Standardhardware und Erweiterungen, die gehören bei dem System mit auf EEPROMs, weil sie auf unterster Ebene ins Betriebssystems eingeklinkt werden.
Hans
Es gäbe da an PCs noch einiges weiter zu entwickeln:
Allgemein um aus einem PC einen Gebrauchsgegenstand zu machen:
– die designte Lebensdauer von PCs sollte vernünftiger werden.
Ein PC sollte ohne Probleme 8 Jahre benutzt werden können,
Länger wenn er wenig läuft.
– PCs, die 8 Jahre alt sind sollten mit neuen PCs interoperabel sein,
so daß Person A mit einem neuen PC und Person B mit einem acht Jahre
alten PC das selbe Dokument abwechselnd bearbeiten können.
– Aus technischen Gründen wäre es hilfreich die CPU auf dem Mainboard
zu verlöten. Das macht aber ökonomisch keinen Sinn, da die CPU oft
genausoviel oder mehr kostet als das Mainboard, und der Hersteller
die CPU aus Kostengründen so spät wie möglich in den Rechner
einbauen will.
speziell Arbeitsplatzrechner:
– Es gibt die Mac Minis und die NetTops als ganz kleine Rechner, die
passen aber nicht unter den Bildschirmfuß. (Die NetTops kann man
gelegentlich hinten anschrauben.)
– Etwas größer gibt es die Gehäuseklasse für die MiniITX Boards und
immer mal wieder kleine Desktops von verschiedenen
Markenherstellern. Ich habe hier z.B. einen Compaq Deskpro EN
rumliegen.
Problem ist, daß diese Geräte eher für den Büroeinsatz denn für den
zu Haus Einsatz gebaut sind, und wieder viele Geräte extern
angeschlossen werden müssen –> Kabelsalat.
Die Mac USB Tastaturen haben den Vorteil, daß die Maus an der
Tastatur angeschlossen wird. –> ein Kabel weniger.
– Für unter den Monitor zu stellen bräuchte man ein Gehäuse wie die
Sparcstation 2 / Sparstation 5 / UltraSparc 1.
Das hat aber das Problem, daß nur 40mm Lüfter eingebaut werden
können, und die sind laut.
– Ein Universalrechner für zu Hause (alles außer High End Gamer)
bräuchte:
o zwei 3½“ Festplatten (RAID1)
o zwei Slots für DVD Writer/BlueRay, oder man muß sich von
vorneherein darauf einstellen, daß das zweite Gerät extern ist.
o drei PCIe Slots (Grafikkarte / TV Karte / Reserve)
o Platz für 80mm Lüfter oder größer
o 2-3Ã