Gehäuse
Auf mein heutiges Thema kam ich, weil ich nach einem neuen PC suchte, der auch Windows 11 geeignet ist. Was Windows 11 mit Gehäusen zu tun hat? Dazu am Schluss mehr. Das Thema heute ist die Entwicklung eines Teils des PC, der gerne vergessen wird – das Gehäuse. Das liegt irgendwie auf der Hand. Ist das Gehäuse doch eigentlich nur ein Blechkasten oder ein Plastikformteil. Es enthält keine Elektronik und ist mit Sicherheit das langlebigste aber auch langweiligste am PC. Ich will die hidrotische Entwicklung mal skizzieren.
Der erste PC war bekanntlicherweise der Altair 8800. Und auch er hatte ein Gehäuse. Das war nicht selbstverständlich, denn es wurden damals auch viele Mikroprozessor Lernkits verkauft, wie der KIM-1, in Deutschland der Micro Professor und als berühmtester Rechner ohne Gehäuse – der Apple I. Da Letzterer ohne Gehäuse und Tastatur nicht verkäuflich war, lies der Händler, die „Byte“ Computerkette eigens für ihn ein Gehäuse aus Holz fertigen.
Beim Altair war das Gehäuse wirklich ein Gehäuse. Es hatte hinten keine Öffnungen für Schnittstellen, nur eine für das Stromkabel. Vorne war die „Tastatur“ eingebaut – eine Reihe von Kippschaltern, mit denen man binär die Daten auf den Datenbus legen konnte. Das war schon komisch, denn es gab in dem Gehäuse einen Bus der bis zu 22 Karten aufnehmen konnte und natürlich waren einige davon Schnittstellenkarten – für Fernschreiber, Papierstreifenleser, später Diskettenlaufwerke oder sogar eine Videokarte.
Doch die PC entwickelten sich weiter. Es kamen zuerst Tastaturen auf. Dann Anschlüsse um Monitore oder TV-Geräte anzuschließen. Als Speichergerät etablierte ich im preiswerten Segment der Kassettenrekorder, im professionellen die Diskettenlaufwerke. Computer zum Spielen hatten Joystickanschlüsse. Dazu kamen Druckerports und Erweiterungsbusse oder Userports. Selbst wenn es keine Karten zur internen Erweiterung gab, ergab sich die Forderung ein Gehäuse zu haben mit Aussparungen für die Schnittstellen. Um den Kabelsalat zu reduzieren, kam auch die Idee auf ins Gehäuse doch gleich etwas zu integrieren, meistens die Diskettenlaufwerke.
Es etablierten sich zwei Architekturen. In der einen waren Tastatur und Gehäuse eine Einheit. Alle Heimcomputer arbeiteten nach dem Prinzip. Die Platine passte in das Tastaturgehäuse und hinten und an der Seite gab es die Anschlüsse. Das war aber nicht auf einfache Rechner beschränkt, auch der Apple II, der mit Karten erweiterbar war, arbeitete nach dem System. Das war nur möglich, weil Stephen Wozniak es fertigbrachte, auf vergleichsweise kleinen Karten wichtige Funktionen wie den Diskettenkontroller unterzubringen. Diskettenlaufwerke musste man dann extern anschließen. Der Vorteil dieses Systems war auch das man so nach und nach das System erweitern konnte und anfangs eben nur Fernseher und Kassettenrekorder nutzte.
Die zweite Lösung waren Geräte, bei denen die Tastatur separat war und das Gehäuse separat, damals war meistens aber noch der Monitor mit dem Diskettenlaufwerk verheiratet. Die Tastatur war so abtrennbar und konnte flacher und ergonomischer werden, auch wenn sie bei vielen Rechnern ziemlich dick war. Sehr beliebt war aber keine getrennte Tastatur, sondern sie saß am Monitor mit Gehäuse fest angebracht, so z.B. bei der CBM Serie von Commodore.
Die heutige Architektur – das Gehäuse beinhaltet die Massenspeicher und Karten, Bildschirm und Tastatur sind getrennt, verbindet man meist mit dem IBM PC, weil dies ein sehr prominenter PC war, der diese Architektur einsetzte, sie wurde vorher aber schon bei anderen PC eingesetzt.
Was in der Folge sich etablierte, war das die Gehäuse immer größer wurden. Der IBM PC hatte ein „Desktop-Gehäuse“. Das Gehäuse wurde auf den Schreibtisch gestellt, darüber meist der Monitor. Damit man nicht nach oben schauen muss, war die Höhe des Gehäuses beschränkt. IBM orientierte sich an der Höhe von 5,25 Zoll Diskettenlaufwerken voller Höhe. Als Alternative etablierte sich bald dann das Tower-Gehäuse das man hochkant auf den Tisch oder besser daneben stellte. Während die Laufwerke aber kleiner wurden – sehr bald kamen Laufwerke mit halber Höhe auf, dann löste das 3,5 Zoll Format das 5,25 Zoll Format ab – auch bei den Festplatten, sodass es Ende der Achtziger Jahre sogar Karten mit Festplatten zum Nachrüsten gab, wurden komischerweise die Gehäuse immer größer. Es folgte auf das um 90 Grad gedrehte Desktop-Gehäuse, das zum „Mini-Tower“ mutierte, das Miditower Gehäuse und das Big-Tower Gehäuse. Ein Big Tower Gehäuse war fast so hoch wie der Schreibtisch und bot Platz für bis zu 10 Laufwerken. Ich betrachte das in der Retroperspektive als Paradoxon. Warum? In der damaligen Zeit entwickelte sich der PC schnell weiter. Nach einigen Jahren hatte ein neuer PC die mehrfache Leistung des vorhandenen. Ein Gehäuse mit vielen Einschüben ist aber gedacht dafür einen PC aufzurüsten mit Laufwerken. Also wenn eine Festplatte voll ist, baut man die nächste ein. Das war damals aber nicht billig, Festplatten kosteten noch viel mehr als heute, und da der Computer selbst sich nicht änderte, war er nach einigen Jahren auch langsam verglichen mit einem neuen Computer. Doch damals kaufte man sich sicher nicht ein neues Mainboard um es zu den alten Festplatten ins Big Tower Gehäuse einzubauen, auch weil Festplatten genauso schnell an Kapazität zulegten. Im Komplettpaket war ein neuer Rechner schon damals billiger als die nachträgliche Aufrüstung. Dazu kam, dann noch das die Hauptplatine immer kleiner wurde. Auf das AT-Format folgte das ATX-Format, seitdem gab es noch weitere Formate wie ITX, die noch kleiner waren. Im großen Big Tower Gehäuse war die Platine dann schließlich ziemlich klein und der meiste Platz war leer. Meiner Ansicht nach haben die meisten ein Big Tower Gehäuse nur aus ergonomischen Gründen gekauft – man kann es neben den Schreibtisch stellen und der Zugriff auf die obersten Laufwerke wie Diskettenlaufwerke oder CD-ROM war so in bequemer Höhe ohne das man sich bücken musste.
Was verschwand und was ich nie verstand, waren zwei Features – der Keylock und die Turbo-Taste. Beginnend mit dem IBM AT gab es im Gehäuse vorne ein Schlüsselloch mit einem einfachen Schlüssel, einfach nur ein Zylinder mit einigen Aussparungen. War der Schlüssel gedreht oder abgezogen, so konnte man den Computer nicht starten und zumindest beim IBM AT war so mechanisch auch das Gehäuse so verriegelt. Der Schlüssel selbst schaltete nur eine Leitung auf dem Mainboard die beim Booten abgefragt wurde. Ich verstand das nie. Denn der Schlüssel war eigentlich ziemlich popelig und dem Preis des Computers nicht angemessen. Es war aber ein und derselbe Schlüssel bei jedem AT. Hatte man also einen Schlüssel, konnte man den „Schutz“ bei jedem AT aushebeln.
Etwas später kam dann die „Turbo Taste“. Die findet man heute nur noch bei Handmixern. Turbo-Taste klingt ja toll, das klingt nach Übertaktung, nach mehr Geschwindigkeit. Dabei war genau das Gegenteil der Fall. War die Turbo Taste aus, so arbeitete der Computer mit der Frequenz des IBM AT mit 8 MHz, war sie ein, so arbeitete er mit der Taktfrequenz, mit der er eigentlich laufen sollte. Anstatt Turbo Taste hätte man sie eigentlich „Slow-Taste“ nennen müssen. Der Sinn und Zweck war Software, die davon ausging, dass die Taktfrequenz genau 8 MHz betrug, weiterhin funktionierte. Ich kannte eigentlich nur Spiele der ersten Generation, die bei schnelleren Rechnern dann unspielbar war, denkbar wären auch Messsysteme, die nicht den Systemtimer, sondern einen Interrupt benutzten. Der springende Punkt ist aber: wer sich einen Rechner mit 33 MHz kauft der noch dazu keinen 286-Prozessor hat (386 und 486-er führten Befehle schneller aus, sodass hier der Systemtakt noch weniger als Kriterium taugte) der wird ihn sicher nicht mit 8 MHz betrieben wollen, eher kauft er sich auf dem Flohmarkt für seine alte Software einen AT mit 8 MHz zusätzlich.
Mit dem Big Tower war die Spitze erreicht, seitdem wurden die Gehäuse kleiner. Lange Zeit die Norm waren nun das Miditower Gehäuse, nun vorgegeben nicht mehr durch die Zahl der Laufwerke und die Größe der Hauptplatine als vielmehr durch den Lüfter, der immer größer wurde. Es begann beim 486, mit einem kleinen Lüfter von weniger als 1 cm Höhe auf dem Prozessor ab 25 MHz Frequenz. Je schneller die Prozessoren wurden, desto mehr Abwärme musste entfernt werden und die Lüfter wurden riesig. Die Spitze wurde mit dem Pentium 4 erreicht, bei dem der Lüfter – unter einem kiloschweren großen Kühlkörper – 130 Watt Abwärme abführen musste. Seitdem ist die Wärmeabgabe wieder gesunken. Da die gesamte elektrische Leistung letztendlich in Wärme umgewandelt wird, kann man aus der Thermal Design Power (TDP) ableiten, wie viel Wärme das Kühlsystem abführen muss. Heute gibt es natürlich auch noch Prozessoren mit hoher TDP für Workstations und Server, aber im Desktop-Bereich liegt die TDP zwischen 35 und 65 Watt. Damit kann das Kühlsystem kleiner werden und auch das Gehäuse.
Ein Big Tower Gehäuse hatte ich nur einmal, bei einem Rechner, den ich 1999 kaufte, seitdem setze ich Midi-Tower Gehäuse ein, die typisch vier bis sechs Laufwerkschächte haben, darunter, zwei bis drei 5,25 Schächte – die braucht man für optische Laufwerke, für sonst nichts mehr heute und drei bis vier 3,5 Zoll Schächte, die man für Festplatten in Standardgröße braucht. SSD für den Einbau haben typisch nur noch 2,5 Zoll Größe, damit passen sie auch in Notebooks und brauchen dann einen Schlitten für den 3,5 Zoll Einschub, und bei heutigen neuen PC gibt es gar keine Laufwerke mehr, sondern die SSD steckt auf einer kleinen Platine (M.2 SSD), die auf dem Mainboard angebracht wird.
Seit dem Mac Mini gibt es aber auch noch kleinere Computer, von Intel z.B. die NUC-Serie. Bis zu einer bestimmten Größe oder besser Kompaktheit geht das noch mit normaler Technik, ganz kleine Rechner gehen nur noch mit Mobilprozessoren und dann auch den entsprechend kleinere S0-DIMM für RAM. Noch kleiner sind „Bastelcomputer“ wie der Raspberry Pi, die dann auch ohne Kühlung auskommen und nur noch so groß sind wie eine Zigarettenschachtel.
Möglich wurde das nur, weil auch die Schnittstellen kleiner wurden. Auf dem Platz, den früher eine paralelle Schnittstelle nach Centronics Standard mit rund 50 Pins, jeder einige Millimeter dick einnahm, bekommt man heute problemlos sechs USB-Ports unter. Ebenso breit waren auch Schnittstellen für Diskettenlaufwerke, serielle Schnittstelle oder VGA-Karte. Trotzdem haben Kleincomputern relativ wenige Buchsen, einfach weil wenig Platz ist. Doch das ist kein Nachteil, denn anders als frühere Rechner kann man die Schnittstellen extern vervielfachen – zumindest bei USB. So haben die Rechner viel mehr Schnittstellen als früher, und die braucht man auch. Ich habe mal nachgezählt, wie viele USB-Ports ich dauerhaft belege: es sind acht: Tastatur, Maus, externe Festplatte, Drucker, Scanner, Kartenleser, Ladekabel mit Mikro-USB und Mini-USB Anschluss dazu kommt ab und an noch ein USB Stick. Das geht bei mir nur mit einem externen USB Hub. Der Vorteil von ganz kleinen Rechnern ist, dass man sie hinten an den Monitor schrauben kann und sie dann praktisch unsichtbar sind. Ansonsten machen meiner Ansicht nach ganz kleine Rechner wenig Sinn. Sie sind teuer durch die Notebooktechnik, aber langsam und was man an Platz beim Rechner einspart, geht dann für den USB-Hub wieder drauf. Sinnvoller sind dann eher flache aber breite Rechner, die man unter den Monitor schieben kann. Ich habe mir so einen für mein Ferienhaus gekauft, ein HP Elitesdesk 800, allerdings gebraucht gekauft, weil ich ihn primär bauche um dort zu surfen, Mail abzurufen und Textverarbeitung zu betreiben. Das Gerät war leicht und kompakt genug um es im Rucksack zu transportieren. Der Nachteil: alle diese Rechner haben keinen Platz für Slots und meist auch nur für ein Laufwerk. Allerdings ist die Bedeutung von Karten immer geringer geworden, bei den ersten Computern wie dem Apple II oder IBM PC benötigte man noch für viele Funktionen, die heute auf dem Motherboard integriert, sind Karten – für parallele und serielle Schnittstelle, Ansteuerung eines Monitors, Echtzeituhr, Joystick, 80 Zeichendarstellung, Betrieb von Diskettenlaufwerken oder gar Festplatten. Heute ist eigentlich nur noch die Grafikkarte übrig geblieben, auch wenn es natürlich jede Menge Karten gibt, aber mehr als eine Grafikkarte wird in 90 % aller Rechner nicht stecken. Schwerer wiegt, das meist auch nur ein Laufwerk verbaut werden kann. Dann geht schon die Kombination einer SSD für Betriebssystem und einer Festplatte für umfangreiche Daten nicht.
Insgesamt sind Computer heute kleiner geworden. Standardfaktor ist heute wieder das Desktopformat, allerdings meist gedreht um 90 Grad als Minitower. Für meinem Bruder kaufe ich Standardhardware, während ich selbst mir den Rechner zusammenstelle. Die beiden letzten Rechner waren beide in diesem Format von Medion und Fujitsu.
Was hat das nun mit Windows 11 zu tun? Windows 11 stellt relativ knackige Hardwareanforderungen, pikanterweise erfüllt selbst eines von Microsoft Surface Notebooks diese nicht. Während ich mit Prozessor und Treiber keine Probleme bei dem neuen Rechner sehe, ist ein Punkt das TPM. Das ist ein Modul auf dem Mainboard, das als sicherer Speicher dient und Windows 11 will zwingend ein TPM 2.0 (bevor jemand anfängt zu kommentieren – man kann Windows 11 auf einem Rechner ohne TPM installieren, doch Microsoft behält sich vor, diese Systeme irgendwann nicht mehr zu unterstützen, was für mich keine Option ist). TPM befinden sich bei allen namhaften Marken auf den Rechnern und sind aktiviert. Wenn man wie ich bisher seinen Rechner zusammengestellt hat, muss man dann bei jedem Mainboard nachschauen, ob ein TPM drauf ist. Die Zeitschrift ct‘ hat Windows 11 schon als Gefahr für die Selbstschrauber bezeichnet, das gilt wohl auch für zahlreiche Händler, die ihren Kunden es ermöglichen den PC individuell aus verschiedenen Komponenten zusammenzustellen.
Mein geliebtes Miditower Gehäuse gibt es aber bei den größeren Herstellern nicht mehr. Vor einigen Jahren wäre das für mich noch schlimm gewesen, in meinem jetzigen Rechner befinden sich vier Laufwerke – zwei festplatten, eine SSD und ein DVD-Brenner. Bei den meisten Minigehäusen passen nur noch zwei rein. Beim Nachdenken erkannte ich aber das mir das eigentlich reicht. DVD benutze ich nur noch selten und wenn dann kann ich sie extern über USB anschließen. Ebenso ist mit USB 3.0 eine externe Festplatte genauso schnell wie eine interne – wobei ich seit 2018 aber ein NAS für das Speichern nutze und die externen Fstplatten nur ab und an für Backups angeschlossen werden. So käme ich mit zwei Laufwerken aus.
Für das Mini-Tower Gehäuse kann ich mich trotzdem nicht begeistern. Es würde wie bisher neben dem Schreibtisch stehen aber ich müsste mich tief bücken, um die oberen USB-Anschlüsse zu erreichen oder auch den Ein-/Ausschaltknopf. Für Rechner im Büro, die nicht großartig intern aufgerüstet werden, sehe ich zwei Bauformen als Ideal. Will man den Schreibtisch wirklich aufgeräumt haben und benötigt man den Rechner nur für übliche Programme im Büro wie Office- oder Internetanwendungen so ist ein an den Monitor anschraubbarer Minirechner ideal. Mit Funkmaus und Funktastatur gibt es dann nur noch das Ethernetkabel. Flexibler ist ein flacher, aber breiter Rechner – ein 24 oder 27 Zoll Monitor nimmt ja auch leicht 50 cm in der Breite ein – den man als Monitorstandfuß nutzen kann, damit dieser in ergonomischer Höhe liegt. Ist das Gehäuse ausreichend hoch, passt sowohl ein ausgewachsener Kühler rein, wie auch flache Karten. Durch die Breite gäbe es auch genügend Platz für mehr als zwei Laufwerke. Vorteil: Die USB-Anschlüsse hat man dann direkt vor der Nase, anstatt neben dem Schreibtisch oder hinter dem Monitor fummeln zu müssen.
Ich persönlich habe mich entschlossen mit dem Neukauf eines PC zu warten. Mein derzeitiger PC aus dem Jahre 2014 tut es von der Leistung her noch gut, hat aber seine Mucken. Zwei USB-Ports funktionieren nicht mehr richtig, angeschlossene Peripherie wird mal nicht erkannt oder verabschiedet sich während des Betriebs. Daneben gibt es alle paar Monate echte Abstürze mit eingefrorenem Bildschirm ohne Blue Screen. Mein Mittel dagegen ist es den Rechner dann aufzumachen, alle Verbindungen nochmals eindrücken, obwohl niemals was locker war und abzusaugen, wobei es Staub nur am Netzteillüfter gibt, wenn man das regelmäßig macht. Dann läuft er wieder störungsfrei für einige Monate. Derzeit ist wegen der Komponentenpreise kein Neukauf ratsam. Prozessoren und Grafikkarten kosten leicht das doppelte dessen, was der Hersteller als Listenpreis ausweist (Prozessoren) oder vor einigen Monaten noch normal war. Ich warte auch mal ab, was die ct‘ als Bauvorschlag dieses Jahr präsentiert. Zum Jahresende stellt sie immer zwei oder drei PC vor die aus Komponenten selbst zusammengestellt werden und die Gebiete Office, Gamer oder Sparsam abdecken.
Wenn man von Gehäuse spricht,. Dann kommt man an Apple nicht vorbei. Es gab zwar immer wieder auch andere Computer die einfach schick oder stylish aussahen, aber Apple hat über Jahrzehnte hinweg viel Wert auf Design gelegt. Beim Apple II hat man einen Designer Hartmut Esslinger beauftragt, das war damals außergewöhnlich, schaut man sich die Rechner der damaligen Zeit an, wie z.B. die ungefähr zur gleichen Zeit erschienen Konkurrenten TRS-80 und Commodore PET. Das Apple II Gehäuse war schick, wenn auch nicht ergonomisch wegen der Tastatur in dem Gehäuse das durch die Aufnahme von Karten relativ hoch war. Bei der Neuauflage Apple IIC hat man das korrigiert. Beim Mac war das Gehäuse auch Teil des Konzepts. Der Computer sollte freundlich sein und in der Tat wirkt der Mac auch sehr niedlich. Das ging aber auf Kosten der Hardware. Ihn zu erweitern war durch das Gehäuse, in dem auch der Monitor integriert war kaum möglich. Dabei war er ziemlich teuer, was auch dazu führte, dass Apple sehr bald mit dem Mac Verluste macht. Es gäbe noch etliche Macs zu erwähnen, wie die iMacs in Bonbonfarben Ende der Neunziger als Steve Jobs zu Apple zurückkehrte – erneut wurde der ganze Rechner in das Monitorgehäuse integriert, den Mac Mini der erst die Welle der Ultrakompakten Rechner auslöste und ein Mac, der nur ein kleiner Würfel war und eher wie ein Toaster als ein Rechner aussah. Das setzt sich auch bei anderen Apple Produkten fort wie den Ipods oder IPhones. Alles sieht immer schick und meist auch hochwertig aus. Oft aber auch verbunden mit Einschränkungen in der Ergonomie, wie der Ipod Shuffle, der ohne Display und wenigen Tasten eigentlich nur die Stücke entweder in fester oder zufälliger Reihenfolge abspielen kann. Ich denke für das Design ist Steve Jobs wesentlich verantwortlich gewesen. Nicht das er ein guter Designer ist, aber er hat Ideen und bringt andere dazu diese umzusetzen. In der Zeit ohne Jobs näherten sich die Macs denn auch mehr dem Aussehen anderer PC an, und als er wiederkam, änderte sich das. Nur einmal hat Jobs selbst etwas designt. Das war der Apple III. Er war ein Zwitter zwischen ergonomischen Ansprüchen und Vermeidung des Kabelverhaus. Das Gehäuse war vorne abgeschrägt, nahm ein Diskettenlaufwerk auf, endete aber in einer flachen, aber nicht abnehmbaren Tastatur. Auf es konnte man wie beim Apple II den Monitor stellen. Das Problem: Verbunden mit der Integration von Karten, die man beim Apple II zusätzlich einbauen musste und viel RAM war die Hauptplatine durch das zu kleine Gehäuse zu dicht bestückt und die Bestückungsautomaten hatten Probleme die Platine zu bestücken. Zahlreiche Apple III fielen bald aus und das Gerät erwarb sich dadurch bald einen schlechten Ruf. Das war Jobs einziger Ausflug in die Welt als echter Designer und nicht nur Ideengeber. Er hat aber daraus gelernt. Den Fehler Design über Funktionalität zu stellen hat er aber wiederholt. Der NeXT war auch ein stylisher Computer, ihm fehlten aber Hardwarekomponenten, die jeweils für eine Käufergruppe wichtig waren wie Festplatte oder Farbdarstellung.
Ich habe Anfang letzten Jahres meinen PC etwas aufgerüstet. Mainboard, CPU und RAM sind von 2012, laufen aber störungsfrei. Als CPU kommt eine Intel I-5 (4 x 3,4 GHz, dynamisch bis 3,8 GHz) zum Einsatz, mit 16 GB RAM. Grafikkarte ist eine GForce GTX-1060. Betriebssystem und Programme liegen auf einer 130 GB SSD, dazu kommen eine 1 TB SSD und einige normale Festplatten für die Daten.
Die Aufrüstung umfasste den RAM (16 GB statt 8 GB), die Grafikkarte und die SSDs. Dazu kam ein neues be quiet! Netzteil mit Kabelmanagement. Als Gehäuse nutze ich ein be quiet! Dark Base Pro 900 Rev. 2 Orange. Mit über 200 Euro nicht ganz billig, aber das beste Gehäuse, was ich je hatte. Mit einem großen Sichtfenster aus Temperglas und LED-Beleuchtung mach es auch optisch etwas her. Es ist gut belüftet (3 x 140 mm Lüfter) und gleichzeitig sehr leise. Alle Ansaugöffnungen sind durch Staubfilter geschützt, die sich einfach säubern lassen. Als Big Tower bietet es Platz im Überfluss für zusätzliche Festplatten. Auch der Einbau einer Wasserkühlung ist möglich. DVD-Laufwerk und Blu-ray-Multi-Brenner verschwinden hinter einer Frontklappe. Oben an der Front befindet sich der Ein-Aus-Schalter, Mikro- und Kopfhörer-Anschluss sowie 2 x USB 3 und 1 x USB 3.1 Anschlüsse (letzterer ist bei mir unbenutzt, da mein Mainboard nicht über USB 3.1 verfügt.). Highlights sind der USB Schnellladeanschluss (mit dem man geeignete Handys in weniger als 1 Stunde wieder aufladen kann) und eine integrierte Qi-Ladestation (für das kabellose Laden von Qi-fähigen Endgeräten) auf der Oberseite. Letzteres dauert etwas länger, aber wenn man Zeit hat, gibt es nichts Bequemeres. Einfach drauflegen und das Gerät lädt! Mein Huawei P40 Pro lässt sich auf beide Arten problemlos aufladen.
Ich habe das Gehäuse jetzt knapp 2 Jahre und bin noch immer restlos begeistert. Es ist zwar groß und schwer, aber das ist bei mir kein Problem. Der PC steht neben meinem Schreibtisch, so dass ich auch die meisten Kabel verdeckt führen kann. Natürlich ist mein PC nicht mehr der neueste und schnellste, aber für meine Ansprüche genügt er vollkommen. Ich habe kein einziges Computerspiel installiert, sondern nutze den PC hauptsächlich zum Schreiben mit Papyrus Autor.
Vorsicht bei Computern für das Büro. Heutzutage ist es sehr hilfreich 2-3 WUXGA Monitore nebeneinander stehen zu haben. d.h. eine entsprechende Anzahl von Monitorausgängen wird benötigt. (Alternativ ein extra breiter gebogener Monitor.)
Dann wird, wenn Home Office möglich ist, oft ein Laptop mit einer Dockingstation verwendet.
Bei Servern ist die Anzahl der möglichen Einsteckkarten immer noch relevant. 1HE Server sind immer irgendwie Kompromisslösungen, da nur 1-3 PCIe Karten möglich sind.