Home | Computer | Schmunzelecke | Site Map |
Wer mit Computern arbeitet hat schon die klaffende Lücke zwischen der Wirklichkeit und den Versprechungen festgestellt. In meiner satirischen Lästerecke habe ich auch diese schon hinreichend gewürdigt. Hier geht es nun ganz ernst um die wirklich Unverschämtesten Computerlügen die uns aufgetischt werden. Die Reihenfolge beinhaltet keine Gewichtung - dies möge jeder selber tun.
Hinweis: Der Aufsatz stammt aus dem Jahr 2001 und ist daher in Teilen heute veraltet, aber vieles gilt immer noch. Einiges habe ich daher 2014 ergänzt.
Niemand wird bestreiten das Computer immer schneller und leistungsfähiger werden. In den 19 Jahren die sich der Autor mit Computern beschäftigt ist die Taktfrequenz von 3 auf 2000 MHz gestiegen, die Hauptspeichergröße von 16 KB auf 256 MB und trotzdem wurden die Computer immer billiger.
Doch werden sie auch leistungsfähiger, kann man mit Ihnen mehr leisten? Sicher ist vieles bequemer geworden - Textverarbeitung z.B. war Anfang der achtziger Jahre eine Sache von Punktbefehlen für Satz und kryptischen Kombinationen zum Editieren. Danach kam die Maus und der Versuch eines grafischen Layouts unter DOS und unter Windows das WYSIWYG.
Doch es ist auffällig das man in vielen Dingen eine Sättigung beobachtet: Neue Programme erfordern neue Computer ohne das man einen Mehrwert hat. Was hat sich seit WinWord 2.0 (lauffähig auf einem 386 er mit 4 MB RAM) wirklich geändert? Warum braucht Windows ME als Nachfolger von Windows 95 10 mal Prozessorleistung und Hauptspeicher ohne 10 mal zu leisten ?
Nun es gibt zwei wesentliche Gründe dafür:
Diese Einsicht habe nicht nur ich gewonnen, sondern ist inzwischen als "Wirtsches Gesetz" bekannt: "Software wird schneller langsamer, als Hardware schneller wird". Es ist immer noch gültig. So haben z.B. Handys heute (2014) einen Mehrkernprozessor, aber Handy Spiele sehen nicht besser aus als alte DOS spiele aus den frühen Neunzigern die auf einem 3856 oder 486 Prozessor mit 30-40 MHz liefen.
... Oder wie ich einmal las: "UNIX ist das Betriebssystem der Zukunft - und das schon seit 30 Jahren!". Da ist etwas wahres dran. Seit ich zum ersten mal von UNIX gehört habe wird es als das Betriebssystem das wegen seiner Stabilität und Leistungsfähigkeit bald die PC Betriebssysteme ablösen wird tituliert. Dazu ein bisschen Historie: Das UNIX wurde zum ersten mal 1964 für die PDP-7 entworfen und 1969 für die PDP-11 zum ersten mal als fertiges Produkt angeboten. Die PDP ist ein 16 Bit Rechner der nicht mal die Leistung eines IBM-PC hatte. UNIX hat sich schnell durchgesetzt, weil AT&T es durch Gerichtsurteil nicht als Produkt vertreiben durfte und es so fast umsonst war. 1977 erschien für die VAX die erste 32 Bit Implementierung. Die VAX ist ein Rechner von der Leistungsfähigkeit eines schnellen 286 ers oder langsamen 386 ers.
Als 1981 der IBM PC mit dem 8088 Prozessor erschien wollte Microsoft darauf ihr UNIX Derivat XENIX laufen lassen - Doch das hätte 256 KB Speicher gebraucht und eine Festplatte. PC-DOS kam mit nur 12 KB Speicher und einem Diskettenlaufwerk aus. Das nächste Mal hörte ich von UNIX 1985 als die 286 erschienen. Diese seien nun schnell genug für XENIX - allein diesmal war UNIX wieder umfangreicher.
Kurzum dieses Spiel wiederholt sich. Man schaue sich die Hardwareanforderungen einer aktuellen Linux Distribution an und die einer von vor 2 Jahren. Selbst wenn man einen Rechner nur als Printserver einrichten will braucht man dazu nun einen gut ausgebauten 486 er - der immerhin die 10 fache Rechenleistung einer alten VAX hat die damals mehrere Benutzer gleichzeitig bedienen konnte.
Kurzum auch UNIX hat die Krankheit befallen immer größer zu werden. Shells - die Kommandointerpreter sind keine kleinen Programme mehr sondern 1 MB große Brocken. Warum setzt sich aber UNIX nicht durch? Nun anders als Windows kommt man um die Shells nicht herum und hier merkt man für wen UNIX ist. Für schreibfaule C Programmierer mit Leidenschaften für kryptische Befehlseingaben mit vielen Sonderregeln die man sich merken muss, Anwender die mit vi und EMACS arbeiten und gerne 200 Befehlskombinationen zum Bedienen der Editoren auswendig lernen. Dazu kommt das es kein echtes Konzept für eine Oberfläche gibt stattdessen 20 Windowsmanager und mindestens 2 konkurrierende integrierende Konzepte.
Das Konzept der Softwarebaustelle mit 600 verschiedenen Baustellen rächt sich sofort wenn etwas nicht so läuft wie man denkt. Denn dann ist man verloren. "Freie Software" ist nicht alles. Sie muss auch leicht zu bedienen sein. Bei Windows gibt es eine zentrale Instanz zur Systemverwaltung - die Systemsteuerung. Die Anwendungen haben in der Regel ein gemeinsames Look & Feel. Das alles kann man bei Linux vergessen. Mein Linux besteht aus über 2000 einzelnen Paketen, die zusammen das System ergeben. Installiert wird über Shell-Skripte. Wenn man seinen Tellerrand über die mitgelieferten KDE Programme hinausschaut sieht man unzählige proprietäre Bedienungskonzepte - Tja 1000 Köche ergeben kein Menü, sondern nur 1000 verschiedene Gerichte.
Unbestritten ist das einem Computer viel Arbeit ersparen können. Man muss einen Text bei einem Tippfehler nicht neu schreiben, man kann in Windeseile alles durchrechnen, wozu ein Buchhalter früher von Hand Stunden brauchte. Doch damit ist es nicht getan: Es steigen die Ansprüche. Nun muss der Text schön formatiert sein, nun kommt zur Kalkulation noch die Grafik. Nun muss man eingesparte Arbeitszeit damit zubringen Präsentationen zu erarbeiten. In der Summe braucht man dafür genauso viel wenn nicht mehr Zeit als ohne Computer. Dazu kommt das was der Computer selbst an Zeit verschlingt. Einarbeitung in Programme, Betriebssysteme, Störungen des Betriebs oder die morgendliche Kaffeepause wenn der Computer erstmal bootet und die Netzwerkverbindungen einrichtet. Dazu kommt noch das die meisten nun sehr viel Zeit im Internet verbringen - nicht nur zuhause sondern auch am Arbeitsplatz.
Das ganze ähnelt der Vision vom "papierlosen" Büro, Mitte der achtziger Jahre - gerade das Gegenteil ist eingetreten: Noch nie wurde soviel Papier bedruckt wie in den letzten Jahren, seit es 20 Seiten/s Laser und Computer gibt und niemand wegen eines Schreibfehlers eine ganze Seite neu tippen muss.
Mein erster Computer war ein Ti 99/4a, ein Rechner mit 16 KB Speicher und einem Kassettenrekorder als Speicher. Dieser Computer präsentierte einem wenn man ihn einschaltete einen BASIC Interpreter, der nur Befehle in dieser Programmiersprache verarbeitete. Dazu gab es aber zwei ausgezeichnete Handbücher. Das war auch noch beim nächsten so, der immerhin noch mit CP/M zurechtkam. Die Syntax von CP/M konnte man dann unter DOS sehr gut wieder verwenden.
Oftmals höre ich: "Das ist ja Computer Steinzeit, Mensch wie ist es da heute schön...". Aber ist dem so? Nun Windows ist vordergründig einfach. Doch wenn es mal nicht so richtig läuft dann wird's schwierig. Die Komplexizität ist seitdem erheblich größer geworden, damit auch die Probleme bei dem Zusammenspiel unterschiedlichster Hard und Software. Im Vergleich dazu waren DOS oder BASIC Interpreter mit einer Handvoll von Kommandos und ihren Parametern ja direkt einfach.
Warum gibt es so viele Bücher über Windows, so viele Artikel in Zeitschriften - wenn es so einfach ist? Nun weil es nicht einfach ist. Dabei ist man mit Windows noch gut dran. Schaut man auf die kommende Konkurrenz Linux so hat man es mit 600 Programmen und 600 Einstellungsskripten oder Dateien in /etc./ zu tun. Außer Computer Masochisten oder Leuten die das mal zwangsweise in den 70/achtzigern auf der Uni gelernt haben ist das nichts für normale Leute.
Das ganze gipfelt heute in der Frage nach den TCO: Total Cost of Ownership oder anders ausgedrückt - Was kostet es mich wirklich wenn ich Linux anstatt Windows in meinem Betrieb einsetze. Unbestritten ist das Windows einfacher zu installieren ist, auch braucht der Administrator des Netzwerkes weniger Kenntnisse als bei Unix/Linux. Doch was ist bei Sicherheitslücken, bei Updates? Wie einfach ist es neue Rechner in das Netz zu integrieren wenn es neue Mitarbeiter gibt. In wieweit ist ein Rechner geschützt vor dem Kaputtkonfigurieren durch Anwender die unbedingt ihre eigenen Programme installiert haben wollen etc. Das ganze wird dann schnell nicht mehr einfach und muss von Fall zu Fall entschieden werden. In jedem Fall aber waren die früheren (einfachen Betriebsysteme wie DOS oder CP/M) hier einfacher. Sie zwangen zwar den Benutzer Kommandos zu lernen, aber beherrschte man diese dann hatte man auch alles Wissen was man brauchte. Ich kenne keine "DOS Profis" oder "CP/M Profis". Ich kenne aber "Windows Profis" und "Linux Profis". Man kann sich nun streiten was Bedienungsfreundlicher ist - ein Betriebsystem ohne grafische Oberfläche und Kommandosyntax das man verstehen kann, oder eines mit Mausbedienung welches einen als Idiot bei Problemen dastehen lässt.
Dazu kommen die neuen Bedrohungen aus dem Internet Längst vergeht einem der Spaß: Message-pop-Ups durch den Windows Nachrichtendienst, Würmer über Löcher im RPC Dienst. Das alles sind Bedrohungen die nun nichts mehr mit dem falschen Browser (IE) oder leichtsinnigem Klicken auf Emails zu tun hat. Das sind Fehler von Windows, die den Benutzer nötigen Updates im wöchentlichen Zyklus einzuspielen, Firewall einzurichten oder Windows Dienste zu sperren.
... Wird noch fortgesetzt....
Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.
Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.
Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.
Mehr über das Buch auf dieser eigenen Seite.
Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.
Sitemap | Kontakt | Impressum / Datenschutz | Neues | Hier werben / advertisment here | Buchshop | Bücher vom Autor |