In der aktuellen ct‘ wird an die Anfänge der Zeitschrift ct‘, die dieses Jahr 35 wird, erinnert. Es gab schon vor vier Wochen eine Retroausgabe, gewidmet alten Computern, anderer Hardware aber auch Skandalen in der Vergangenheit wie Softram oder der KGB-Hack. Diesmal sind es nur drei Artikel und einer befasst sich mit Irrtümern in der Zeitschrift.
Einer davon ist der Netzcomputer oder Net-Computer den die Zeitschrift, wenn auch nicht konkret (als Buzzwort) in Ausgabe 6/1999 ansprach. Der PC mit Gehäuse und Bildschirm würde von einem mobilen Gerät, heute würden wir wohl von einem Tablett sprechen, abgelöst und der Rechner im Keller stehen oder Software sogar aus dem Internet kommen.
Dabei war die Zeitschrift sogar spät dran, es gibt die dreiteilige Serie „Triumpf of the nerds“, die auch ins deutsche übersetzt und auf Bayern 3 ausgestrahlt wurde unter dem Titel „Unternehmen Zufall“. In der zeichnet der Journalist die Entwicklung des PC nach mit den Stationen Altair, Apple II, IBM PC und Windows. Wertvoll ist wie weil viele Zeitzeugen, auch hochrangige, wie Bill Gates und Steve Jobs interviewt wurden. Wer es noch nicht gesehen hat: nachholen. Die Serie ist wirklich sehenswert
Eine Prognose kam von Larry Ellison. Eigentümer von Oracle. Er beschrieb, das es damals fürchterlich umständlich sei, einen Computer in Betrieb zu nehmen. Man müsste erst mal Software installieren, das war damals schon beim Betriebssystem nicht ganz einfach, denn Treiber suchte Windows sich damals nicht selbst aus dem Internet. Er bezeichnete das als „Just kidding“. Seien Lösung: Das alles gibt es im Netz. Die Vision: Man hat ein kleines Gerät, das man mit dem Netz verbindet und das holt sich dann das aktuelle Betriebssystem, die Anwendungen und sogar Daten. Später gab es das Gerät tatsächlich als Netzcomputer (Net-Computer) und gibt es bis heute, nur heißt es inzwischen Thin-Client. Dabei ist der Begriff etwas verwirrend, denn so heißen auch sehr kleine Computer wie Barebones oder Ultra-Slim Bürocomputer, nur sind das vollwertige Computer.
Auf den ersten Blick klingt das sogar vernünftig. Zum einen wird so der Computer viel bedienungsfreundlicher. 1995 als er diese Aussage machte, gab es zwar gerade den Windows 95 Boom. Aber noch immer wurde der PC fast nur beruflich genutzt. Spielen konnte man zwar auch, aber dafür war er zu teuer und die Hardware auch nicht ausgelegt, erst wenige Jahre später kamen die ersten Grafikkarten die Funktionen hatten, um Spiele zu beschleunigen, wie die Voodoo von 3DFX. Internet surfen war noch kein Thema, wenngleich um diese Zeit herum der Internetboom in den USA langsam startete.
Man konnte auch viel Geld sparen. Damals waren Festplatten noch teuer, kosteten um die 1000 Mark, was ein Drittel des Rechnerpreises ausmachte. Dazu kam der Controller, der damals noch nicht im Chipsatz war. Zudem belegten sie den meisten Platz im Gehäuse – wuchtige Kühler brauchte man bei den 486-Prozessoren der Zeit noch nicht. Heute übrigens bei den neuen Gemini-Lake Prozessoren auch nicht, zumindest wenn es ein sparsamer mit 15 Watt Thermal Design Power (früher Atoms, heute Celerons und Pentiums) ist. So passte der Net-Computer dann auch wirklich in ein kleines Gehäuse oder wäre wie beim iMac in den Monitor integrierbar. Im Idealfall wäre so auch das Verkabelungsproblem gelöst, an dem zumindest ganz unerfahrene Anwender scheitern, da Monitoranschluss, Stromanschluss für den Monitor wegfallen und es nur noch drei Anschlüsse für Netzwerk, Tastatur und Maus gibt.
Trotzdem gab es Vorteile für den Anwender: wenn seine Daten im Netz (heute würden wir Cloud sagen) gespeichert sind, dann muss er keine Datensicherung machen, das kann ein zentraler Dienstleister sowieso viel besser. Er muss sich nicht um Softwareaktualisierung oder neue Betriebssysteme kümmern und diese installieren, das alles bekommt er beim nächsten Booten automatisch.
Der Grund für Ellisons Euphorie war wohl Java, das damals gerade neu erschien. Java hatte den Anspruch, das man damit alles machen könne. Von der Mikrocontrollerprogrammierung bis zu Großrechnern sollte es auf jedem Rechner laufen und dank einer virtuellen Maschine auch derselbe Code. Ein Feature das damals so gut zu dem Internet-Boom passte waren verteilte Anwendungen ermöglicht durch Remote Procedure Calls. Damit ist gemeint, dass ein Teil der Anwendung auf einem PC läuft und ein anderer (meist der größere Teil) auf einem anderen Rechner. Übers Netzwerk kann dann der PC-Teil Routinen auf dem Server aufrufen, die auch dort ausgeführt wird und erhält nur die Ergebnisse zurück. So kann ein Programm auf dem PC extrem klein sein und sich nur um die Dinge kümmern, die schnell gehen müssen wie Bildschirmaufbau. Alles, was eine Latenz haben kann, die Menschen als „schnell“ empfinden, das liegt so im Bereich von 0,5 bis 1 s – eine Ewigkeit schon damals für Computer, kann dann ausgelagert werden.
Folgerichtig übernahm dann Oracle auch Sun Microsystems, die Java erfanden, allerdings erst 2009, da war der Javaboom schon vorbei, ebenso der des Netzcomputers.
Warum scheiterte der Netzcomputer?
Nun sicher ein Grund waren technische Probleme. Als der ct-Artikel 1999 erschien, gab es gerade erst in Deutschland die ersten DSL-Angebote der Telekom, damals noch 768 kbit schnell. Was heute langsam ist, war damals mehr als fünfmal so schnell wie ISDN mit Kanalbündelung oder zwanzigmal so schnell wie analoge Modem, die die meisten hatten. Einer meiner Informatikprofessoren meinte, er sähe keinen Grund, warum jemand „so schnelles Internet“ bräuchte und das die Studenten die jetzt schon von DSL schwärmten wohl zu viel Geld hätten – der DSL-Anschluss kostete 100 Mark im Monat. Er hat es wohl wie ich gemacht, in der Uni wurde, dass was viel Platz braucht kopiert. Die FH Esslingen hatte schon einen Breitbandanschluss. Zuhause wurden die Programme wieder auf den PC aufgespielt. Die Rechner in den für alle Studenten freien Räumen („Pools“) hatte dazu eigens ZIP-Laufwerke, damals ein gängiges Wechselmedium. Viele meiner Kommilitonen legten sich eigens deswegen ein Zip-Laufwerk zu. Ich habe dagegen CDs gebrannt. Auch mein erster USB-Stick mit ganzen 128 MB Kapazität wurde nur deswegen gekauft. In den USA wird man damals wohl weiter gewesen sein, auch was schnelle Anschlüsse, nicht nur über das Telefonnetz, sondern Fernsehkanalnetz angeht. Das war schon damals besser ausgebaut und erreichte viel mehr Amerikaner. Fernsehen über Satellit ist bis heute in den USA eher unüblich. Aber sicherlich waren die Geschwindigkeiten damals im Vergleich zu heute doch sehr bescheiden.
Daneben entpuppte sich Java zwar als eierlegende Wollmilchsau, wurde mit jeder neuen Version aber langsamer und brauchte mehr Speicher, was das Konzept eines Thin Clients ad absurdum führte.
Der Hauptgrund, der gegen den Netzcomputer spricht, ist aber die Psychologie. Menschen wollen gerne etwas besitzen. Sie mieten und leihen nur ungern etwas, außer es gibt triftige Gründe und sie können es sich nicht leisten. Nicht umsonst haben Firmen bis heute die meisten Fahrzeuge geleast, während Privatpersonen sich einen Wagen kaufen. Für eine Firma sind kalkulierbare jährliche Kosten besser für die Bilanz und Buchhaltung, als einmalige Ausgaben. Daneben schwingt auch die Befürchtung mit das man nun abhängig ist. Einen PC hat man gekauft und wenn der Hersteller pleitegeht, dann funktioniert er immer noch. Ein Netzcomputer ist dann nur noch Schrott. Der Hersteller muss nicht mal pleitegehen. Es reicht auch, wenn ein Update misslingt. Oder es müssen nicht alle Aktualisierungen den Wunsch des Anwenders treffen. Man denke nur mal an Windows Vista, dass niemand haben wollte oder die Ribbons von Microsoft Office. Es gibt ja auch Leute, die wollen gar keine Aktualisierung. Die sind mit ihrer Textverarbeitung oder sonstigem Programm zufrieden und wollen keine neue Version, egal ob diese neue Funktionen hat, weil sie nur einen Teil nutzen und nichts vermissen. Denn jede neue Version bedeutet auch neuen Lernaufwand.
Der Netzcomputer ist tot – es lebe die Cloud, iStore und GooglePlayStore.
Eigentlich ist der Netzcomputer ja nicht tot. Das Konzept hat sich aber gehalten und es ist heute eigentlich ganz erfolgreich. Was sich geändert hat, ist, dass es kein Thin-Client ist, sondern ein vollwertiger Computer, der auch offline nutzbar ist. Das Modell ist aber geblieben. Microsoft Office kann man nicht mehr kaufen, nur noch mieten. Man bekommt automatisch immer die neueste Version. Windows 10 kommt mit halbjährlichen Updates, die man immerhin mit etwas Wissen noch abschalten kann. Bei Android geht das gar nicht, was mein Billigsmartphone unbenutzbar gemacht hat, weil es schon wenig Speicher und einen langsamen Prozessor hatte. Smartphones gibt es praktisch nur noch als „Netzcomputer“, bei Tabletts ist es bei einem Großteil der Geräte zu. Von den vielen anderen Gadgets wie Smartwatches ganz zu schweigen. Manche Hersteller wie Apple bauen nicht mal noch einen Anschluss für externe Massenspeicher wie Micro-SD-Karten oder USB-.Sticks ein, da landen dann auch alle Daten im ITunes Account.
Inzwischen geht auch der Trend dazu, dass man Software gar nicht mehr installieren muss – das muss man zumindest bei Microsoft Office 365 noch. Aber es gibt auch Alternativen. Bei Google Docs kann man Dokumente im Browser bearbeiten. Durchgesetzt hat sich das Prinzip bei der Steuererklärung: Es ist ein abgeschottetes Gebiet mit klaren Zielen (die Vordrucke ausführen). Die Möglichkeiten des Anwenders vom Pfad abzuweichen und „kreativ“ zu sein sind klein und vor allem muss man diese nur einmal pro Jahr machen. Ein Programm nützt einem nächstes Jahr wegen laufend geänderter Gesetze gar nichts mehr. Zumindest ich habe mir vorgenommen das nächstes Jahr mit einem Onlineprogramm zu probieren.
Daten werden heute in der Cloud gespeichert entweder direkt vom Anwender über Dropbox, OneDrive oder GoogleDrive oder über Nutzung von Anwendungen und Diensten bei Servern von Diensten wie Facebook, Whatsapp oder Instagram. Software kann ich bei den meisten mobilen Geräten nur noch über Stores der Hersteller des Gerätes oder Betriebssystem installieren, nicht beliebige Software. Kurzum, wir alle haben heute einen Netzcomputer, nur heißt er nicht mehr so.