Home | Computer | Computer Geschichte | Site Map |
Zu der Entwicklung der ersten Rechner bis Mitte der fünfziger Jahre lesen Sie bitte den Artikel über die technische Entwicklung. Die ersten Rechner waren Spezialkonstruktionen spezialisiert für die Lösung besonderer Anforderungen. Nicht selten wurden in der Anfangszeit Problemstellungen hardwaremäßig durch Verschaltung vorgegeben. Die Entwicklung von höheren Programmiersprachen machte eine höhere Abstraktionsebene möglich. Mit den ersten Transistor beschalteten Rechner Mitte der fünfziger Jahre, hielt der Computer auch Einzug in die Unternehmen. Damit war ein universelles System, mit dem man sowohl naturwissenschaftliche Fragestellungen wie auch Datenverarbeitung treiben konnte gefragt. Die Lösung ist die noch heute existierende Familie der Großrechner - Anlagen mit Verkaufspreisen von typischerweise über 1 Mill. DM und einem nötigen Stammpersonal von einigen Personen. Doch bald zeigte sich das vor allem für die Naturwissenschaft wo es mehr um Rechengeschwindigkeit als um die Datenverarbeitung ging, spezialisierte Computer nötig waren - der homogene Markt der Computer begann sich immer weiter zu segmentieren. Eine Entwicklung die noch heute anhält.
Schon in den sechziger Jahren entwickelte die Firma CDC schnelle Rechner für die Wissenschaft. Vor allem dem genialen Computeringenieur Seymour Cray verdankten diese Geräte ihre Geschwindigkeit. Schon der Erstling CDC 1604 war ein kommerzieller Erfolg, Weniger als eine Million Dollar musste man für den 0.5 Megaflop Rechner zahlen. Berühmt machten Cyber aber die CD 6600 (entstanden 1965,9 Megaflops, Bild links) und die CDC 7600 (40 Megaflops) von 1968. Die CDC 6600 verwandte z.B. schon die parallele Abarbeitung von Befehlen in 2 Rechenwerken (bei der x86 Architektur erst 30 Jahre später mit dem Pentium eingeführt).
1972 machte sich Seymour Cray selbstständig, und gründete die Firma Cray Research. Er baute danach Supercomputer - Rechner speziell für das schnelle Verarbeiten von Zahlen ausgelegt. Schon der Erstling die Cray 1 war 1976 ein neuer Star: Mit 170 Megaflops lag sie als erster Rechner über 100 Megaflops. Erreicht wurde die Geschwindigkeit in dem an mehreren Zahlen dieselbe Operation durchgeführt wurde. Während eine Multiplikation sonst 9 Takte dauerte konnte die Cray 1 nach dem ersten Ergebnis jeden Takt ein neues präsentieren.
Die Cray 1 (Bild links) war damit ein Rechner für Daten die immer gleich verarbeitet werden - ideal für die Wissenschaft wo man einige hundert lineare Gleichungssysteme mit 100.000 oder Millionen von Daten bearbeiten muss. Diese Architektur nennt man Vektorrechner. Ein Vektor besteht aus einer Anzahl von Zahlen, mit denen dieselbe mathematische Operation durchgeführt wird. Die Supercomputer von Cray waren so auf die Geschwindigkeit optimiert, das man noch mindestens einen zweiten Computer brauchte, der den ganzen "Kleinkram" erledigte, also die Daten von Terminals holen, Jobs in die richtige Reihenfolge für die Abarbeitung bringen, Daten von Plattenspeichern holen und schreiben, Ergebnisse auf Druckern oder Bildschirmen ausgeben, kurz alles was aufhält. Damit die Rechner schnell waren hatten die meisten Crays eine runde Form, dadurch waren die Leitungsbahnen sehr kurz. Auch von der Größe her waren die Crays relativ klein, mussten aber gut gekühlt werden. Spätere Modelle hatten die Chips sogar in ein Bad mit Kühlmittel gelegt.
Bis Anfang der neunziger Jahre wurden Crays Rechner immer schneller und leistungsfähiger. Durch Reduktion der Zykluszeit von 12.5 ns bei der ersten Cray von 1976 auf 2 ns bei einer Cray C90 Anfang der neunziger Jahre und 16 anstatt einem Prozessor. Anfang der neunziger Jahre kam aber das aus für dieses Konzept. Im selben Zeitraum von 1976 bis 1992 in dem eine Cray 100 mal schneller wurde, wurden Mikroprozessoren 3000 mal schneller. So wurde es sinnvoller anstatt einen Superrechner aus einer handvoll Vektorprozessoren aus mehren Hundert bis Tausend der schnellsten PC Prozessoren zu bauen. Die ersten Experimente dieser Art kamen Mitte der 80er Jahre aus und mit dem Aufkommen der ersten schnellen RISC Prozessoren Anfang der neunziger Jahre begannen Computer mit 1000 oder mehr Prozessoren vom Typ eines Power PC, i860 oder Sun SPARC die Vektorrechner abzulösen. Mehr über Supercomputer in dem Aufsatz "Der Supercomputer und der PC"
Schon vor den Supercomputern wurde aber auch ein neuer Markt geboren: der Minicomputermarkt. In den sechziger Jahren waren Computer noch immer groß, beanspruchten größere Räume und 2-3 Personen zur Zuteilung von Jobs oder dem Wechseln von Magnetbändern. Für kleinere Firmen oder wissenschaftliche Institute waren die Rechner zu teuer im Kauf und im Unterhalt. Kenneth Ohlsen gründete Digital Equipment (DEC) 1957. Mit dem Ziel Computer billiger zu machen. 1965 kam der erste kommerzielle Erfolg: Der PDP-8, ein Rechner für unter 100.000 Mark. 1971 erschien der PDP-11. Ein 16 Bit Rechner der zum Verkaufsschlager wurde. Damit war es möglich sich erschwingliche Rechnerleistung zu besorgen ohne für die Abarbeitung von Programmen bei einem Rechenzentrum Schlange stehen zu müssen. Vor allem Universitätsinstitute lernten dies zu schätzen.
Berühmte machte DEC aber die VAX 11/780 von 1978. Der erste 32 Bit Minicomputer, mit einer Rechenleistung von 0.5 Megaflops. Vor allem deswegen, weil der Ostblock ein sehr großes Interesse daran hatte diesen Mini zu beschaffen um ihn zur Steuerung der SS-20 Mittelstreckenraketen einzusetzen. DEC wurde sehr schnell zum Marktführer in diesem Markt, verschlief jedoch später den boomenden Markt der Mikrocomputer, da der Firmengründer Ohlsen nicht daran glaubte (Zitat 1977: "Es gibt keinen vernünftigen Grund warum jemand zuhause einen Computer brauchen sollte.". (Na ja so unrecht hat er ja nicht gehabt, denn brauchen tun auch heute die wenigsten einen Computer). DEC entwickelte für das VAX auch das damals fortschrittlichste Betriebssystem VMS. Anfang der 90 er Jahre kam die Firma ins Schlingern, wie viele andere Firmen durch den schrumpfenden Markt für Mini Computer. Die hellsten Köpfe im Computerbereich gingen zu Microsoft (wo sie Windows NT entwickelten) und AMD - wo Sie die Technik des Alphas umsetzten, um den Athlon zu entwerfen.
1968 wurde der Mikroprozessor bei Texas Instruments erfunden, erfolgreich wurde aber Intel mit diesem Typ. 1971 wurde der erste 4 Bit Prozessor Intel 4004 angeboten, und 3 Jahre später begann mit dem Intel 8080 die Computerevolution. Zahlreiche Bastler machten sich daran um diesen Prozessor herum einen Rechner zu bauen. Der Altair 8800 war im Januar 1975 der erste "PC" - er war mit 397 USD Verkaufspreis für jeden bezahlbar. Auch Apple begann damit, das man den Apple I - eine nackte Platine als Selbstbausatz verkaufte. Steve Jobs, der mit Steven Wozniak die Firma gründete erkannte jedoch bald, das man erheblich mehr Computer verkaufen könnte, wenn man ein Komplettgerät anbot. Mit diesem dem Apple II (1978) wurde Apple zum Marktführer. Die ersten waren noch als Heimcomputer gedacht - um programmieren zu lernen, zu spielen oder einfach den Computer kennen zu lernen. Doch bald wurden sowohl die Geräte so leistungsfähig, das man sie für das Schreiben von Rechnungen und Briefen nutzen konnte. Dazu kamen die ersten Anwendungsprogramme wie VisiCalc (1979 - Tabellenkalkulation), Wordstar (1978 - Textverarbeitung), DBase II (1980, Datenbank). Etwa um diese Zeit erreichte auch der Speicherausbau mit 32-64 K eine Grenze, ab der man Anwendungsprogramme nutzen konnte.
IBM, die diesen Markt zuerst nicht ernst nahmen stellten fest, das von diesen Geräten 100.000 Stück verkauft wurden, viele IBM Kunden nutzten diese kleinen Geräte, um dort einfache Aufgaben zu machen oder unabhängig vom Großrechner zu sein. Man wollte am Markt partizipieren hatte aber ein typisches IBM Problem: Es dauerte bei IBM zu lange einen PC zu bauen, mindestens 2 Jahre und 200 Leute wären dazu nötig, ergab eine erste Abschätzung. Ganz unkonventionell gab das Management einem kleinen Entwicklungsteam die Aufgabe dies schneller zu machen. Ihre Lösung - ein PC ohne Verwendung von IBM Technologie wurde akzeptiert. Sehr bald bekamen Konkurrenten zu spüren was alleine der Name IBM bedeutete. Denn obgleich der IBM PC teuer war und technisch nicht besonders fortschrittlich, verkaufte er sich wie warme Semmeln. Er rief auch Nachahmer auf den Plan, die ihn kopierten und dadurch die Basis der installierten Systeme noch vergrößerten. Von allen Konkurrenten hat alleine Apple bis heute überlebt.
Mit dem IBM PC begann auch der Aufstieg einer Firma, die vor allem durch die geschickte Vermarktung der Ideen anderer berühmt wurde: Microsoft. Gegründet 1977 von Bill Gates und Paul Allen war die Firma bis 1981 als der IBM PC gebaut werden sollte vor allem mit der Entwicklung von Programmiersprachen bekannt geworden. IBM wollte von Microsoft Betriebsystem und BASIC Interpreter kaufen, doch nur letzteres war ein Produkt von MS. Sie schickten die Manager zu Gary Kildall, dem Gründer von "Intergalactic Digital Research", dessen Betriebssystem CP/M der damalige Marktstandard war. Er war jedoch im Urlaub und seine Frau weigerte sich die Verschwiegenheitserklärung zu unterschreiben. So platzte der Deal. Das Geschäft machte Microsoft mit MS-DOS. Dieses hatten sie kurz vorher von Seattle Computers eingekauft, wo es Q-DOS (Quick and Dirty OS hieß). Das Abkupfern praktizierte MS-DOS noch erfolgreich mit Mac OS, nachdem sie für den Macintosh Mac Write und Mac Paint schrieben und beim Internet Explorer, der eigentlich Mosaic hieß und ebenfalls zugekauft wurde.
Lange Zeit hatten die PCs keinen Einfluss auf den Großrechner, Workstation und Mini Computer Markt. Ein PC war isoliert, er ersetzte zwar schnell Schreibmaschinen in den Büros, aber er hatte nicht die Fähigkeiten auf große Datenbestände zuzugreifen. Aber PCs wurden wesentlich schneller Leistungsfähig als Großrechner. Von 1972 bis 1982 sank der Preis pro MIPS bei IBM Großrechnern um den Faktor 4, im gleichen Zeitraum wurden PC Prozessoren um den Faktor 100 leistungsfähiger und die schnellsten waren 1982 schon so schnell wie kleinsten IBM Großrechner die 100 mal teurer waren. IBM selbst erfand eine Netzwerkstruktur die IBM PCs an Großrechner anband. Man konnte diese so entlasten und die PCs effektiv nutzen. Doch Netzwerke innerhalb von PCs - mit Marktführer Novell - waren erheblich attraktiver. Man benötigte nur PCs und einen Fileserver, welcher kein Großrechner sondern eine 10 mal preiswertere Workstation sein konnte. Großrechner und Minicomputer verkauften sich ab Ende der achtziger Jahre schlechter und wenig später verdrängten die immer leistungsfähigeren PCs auch zahlreiche Workstationhersteller vom Markt die ihre Entwicklungskosten eben nicht auf Millionen Geräte umlegen konnten.
Erst mit dem Aufkommen des Internets. wurden Großrechner wieder attraktiv - e-commerce benötigt für viele Zugänge leistungsfähige und schnelle Datenbankzugänge. Dies leistet ein Großrechner besser als eine Farm von PCs. Inzwischen haben die Hersteller von Großrechner dies auch erkannt und entwickeln diese auf Basis von PC Prozessoren die geschickt gebündelt werden.
Lange Zeit erfolgreich war neben dem PC Markt - mit Geräten zum Arbeiten, Preise ab 3000 DM aufwärts - auch der Heimcomputermarkt. Ein Heimcomputer unterschied sich von einem PC darin, das man zuerst nur den nackten Rechner kaufte - ohne Massenspeicher und angeschlossen konnte er an den Fernseher. Die Rechner booteten nicht ein Betriebssystem sondern starteten einen BASIC Interpreter aus einem ROM. Anfang der achtziger Jahre gab es eine ganze Reihe von 8 Bit Heimcomputern auf denen man programmieren konnte oder einfach nur spielen. Der Meistverkaufteste war wohl der Commodore 64. Ab 1985 erschienen der Amiga und Atari ST, Heimcomputer mit der Leistung eines IBM AT, die man sowohl zum Spielen wie auch zum Arbeiten nutzen konnte. Doch der Markt ging langsam aber sicher unter. Der Grund war das zum einen beim Übergang von 8 auf 16 Bit Systeme die Entwicklungskosten anstiegen, so das viele Firmen die Heimcomputer herstellten lieber einen IBM Kompatiblen Nachbau produzierten. Zum anderen wurden PCs billiger und ihre grafischen Fähigkeiten glichen ich denen der Heimcomputer an. Die letzten Firmen auf dem Markt - Atari und Commodore machten Anfang der 90 Jahre Konkurs. Mehr über die Geschichte des PC in einem separaten Aufsatz.
Etwa gleichzeitig mit dem PC Markt schloss eine andere Geräteklasse die Lücke zwischen Minicomputern und PCs. Workstations sind Rechner die sowohl leistungsmäßig wie auch preislich über PCs liegen. Die ersten Workstations verwendeten zumeist den schnellen Prozessor MC 68000 von Motorola, der einige Jahre später auch in den Macintoshs, Ataris und Amigas sich wieder fand. Die Rechner hatten eine auf Geschwindigkeit getrimmte Architektur und verwendeten als Betriebssystem ein UNIX Derivat. UNIX war als Betriebssystem schon 1971 entwickelt worden, die Fähigkeit mehrere Benutzer und Programme parallel auf einem Rechner ausführen zu lassen machte es bald zu einem führenden Betriebssystem im Bereich Workstations und Minicomputer.
Ende der achtziger Jahre begannen die großen Hersteller von Workstations (Sun, Apollo, Silicon Graphics) damit anstatt der schnellen PC Prozessoren eigene RISC Prozessoren zu entwickeln um Workstations schneller zu machen. Intel konnte dem aber erfolgreich konnten. Obgleich die x86 Familie erheblich mehr Transistoren pro Chip benötigte um dieselbe Rechenleistung zu erbringen konnte der Preis durch die enormen Stückzahlen unter den Eigenentwicklungen von Sun (SPARC) oder DEC (Alpha) gedrückt werden. Mehr und mehr verdrängten Multiprozessormaschinen mit gängiger PC Hardware die Workstations. Daran konnte auch der Power PC Chip, eine Initiative von Apple, Motorola und IBM nichts mehr ändern. Viele Workstation Hersteller verloren massiv Marktanteile und bieten heute auch Workstations auf Basis von Intel Prozessoren an, so Silicon Graphics und Sun. HP hat die Weiterentwicklung seiner PA-RISC Serie ganz eingestellt.
Schon 1982 waren die ersten tragbaren Computer auf dem Markt - allerdings nur mit 16 K Speicher und einem vierzeiligen Display. Bis Computer wirklich tragbar waren verging noch geraume Zeit. Die ersten Computer mit denen man arbeiten konnte waren so groß wie ein Koffer und hatten einen Röhrenmonitor. Am Ende der achtziger Jahre kam mit dem LCD Display und 3.5" Laufwerken die ersten Laptops auf den Markt. 1992 erschien mit dem Apple Newton der erste Pocket PC oder Organizer. Zu Ende der neunziger Jahre findet man kleine PCs fast überall - in Handys, Uhren - Nur die Finger müssten noch schrumpfen um sie auch bedienen zu können.
Mit der Erfindung der integrierten Schaltung hielt diese auch in Geräten die man nicht sofort als Computer erkannte Einzug wie Radios oder Fernseher. Als Anfang der achtziger Jahre ein Mikroprozessor nur noch 20-50 DM kostete, mutierte er zum Mikrocontroller. Ein Mikrocontroller ist ein Prozessor mit integriertem ROM und Arbeitsspeicher und zahlreichen I/O Anschlüssen. Mikrocontroller kontrollieren heute in vielen Geräten Funktionen: In Mikrowellen steuern sie Zeit und Energie, bei Toastern messen sie ob dieser schon braun ist, sie steuern das Programm in der Waschmaschine. In einem modernen Auto findet man heute 30-40 Mikrocontroller, von der elektronischen Einspritzung über ABS, Airbag bis hin zu den digitalen Instrumenten. Gemessen an der Stückzahl haben Mikrocontroller PCs lange überrundet - 2000 wurden weltweit 50 mal mehr Mikrocontroller als PC Prozessoren verkauft, der größte Teil davon noch in der in der PC-Welt belächelten 8 Bit Technik. Doch auch bei den 32 Bit Prozessoren macht der Anteil von Intel und Co nur 20 % aus. Motorola hat im Jahre 2001 den 4 Milliardsten 68HC11 Prozessor verkauft - eine fortentwickelte 8 Bit Technik, die seit 25 Jahren verfügbar ist.
IBM wollte 1981 nur widerwillig ins PC Geschäft einsteigen - sie vermuteten das dieser Markt sich nicht lohnen würde. 20 Jahre später sind viele Teile des Computermarktes verschwunden. PCs sind so leistungsfähig geworden, das es praktisch keinen Workstation Markt mehr gibt - und die wenigen Hersteller vertreiben vor allem Workstations auf der Basis von PC Hardware. Prozessoren aus dem PC Umfeld - Intel, Alpha, Power PC und MIPS werden heute zusammengeschaltet. In kleinen Systemen ersetzen diese Server, in größeren einen Mini Computer, und mehrere dieser Knoten dann einen Großrechner oder sogar einen Supercomputer.
Der Grund für diesen Erfolg liegt nicht nur in der Geschwindigkeitssteigerung, sondern auch darin, dass mit steigender Integrationsdichte die Entwicklungskosten ansteigen. Hersteller von Hardware die sich auch in PCs verwenden lässt können diese Kosten auf einen Markt mit Millionen Stückzahlen umlegen, Anbieter spezieller Lösungen können dies in der Regel nicht. Diese Veränderung hat viele Firmen erfasst die klangvolle Namen im DV Umfeld hatten wie DEC, Silicon Graphics oder Cray Research. Außer IBM entwickeln heute keine Hersteller mehr spezielle Großrechner Hardware. Stattdessen werden handelübliche Mikroprozessoren in Mehrprozessorsystemen mit schnellen Busen und angepassten Speicherarchitekturen zusammengefasst. Von Servern mit 2-4 Prozessoren bis hin zu Supercomputern wie dem ASC White mit 8192 Prozessoren.
Netze und Internet haben aber auch Großrechnern und Mini Computern wieder zu einer Renaissance verholfen. Als in den achtzigern sich Netze in den Unternehmen verbreiteten, wurde bald klar, das man sich mit dezentralen Netzen ein großes Datensicherungsproblem schaffte. Daher geht man heute wieder dazu Daten zentral auf einem Großrechner zu halten, anders als Früher aber nicht mehr die Anwendungen. Mit dem Internet kam für viele Unternehmen die Herausforderung, dazu mehrere hundert Benutzer zugleich zu bedienen - wie früher bei den Großrechnern nur diesmal übers Internet.
Früh schon wurden Computer miteinander vernetzt um die Rechengeschwindigkeit zu nutzen. Ein Großcomputer kann ohne Problem mehrere Hundert Bankterminals und Kontoautomaten gleichzeitig bedienen. Doch diese Netzte waren auf die Maschinen zugeschnitten. Es gab keinen einheitlichen Standard. Auch der IBM Computer war von IBM als Ergänzung für die Großrechner gedacht, als ein intelligentes Terminal, das vor Ort kleinere Dinge erledigen konnte wie Briefe schreiben, für die größeren Dinge wie Buchhaltung, Lagerverwaltung etc. aber auf einen Großrechner zurückgreifen sollte. Es gab zuerst kein Netz für PCs. Dem schuf Novell in den achtziger Jahren Abhilfe. Obgleich ein Netzwerk in einen PC unterzubringen sehr schwierig war, denn es erforderte Dinge die DOS nicht vorsah wie Zugriffschutz von Dateien, Multitasking und Privilegien. Für größere Rechner war dies kein Problem, da UNIX diese Fähigkeiten von Hause aus mitbrachte.
Das wohl wichtigste Netz wurde aber das Internet. Gegründet 1968 als militärisches Netz unter der Bezeichnung Arpanet wuchs es zuerst nur langsam. 1983 wurde das noch heute gültige Protokoll TCP/IP erfunden, 1990 das Arpanet als vom militärischen in ein ziviles Netz umgewandelt und im gleichen Jahr die Sprache HTML, die URL und das HTTP Protokoll erfunden. Von da an entwickelte sich das Internet explosionsartig. Es hat auch die Netze in den Unternehmen beeinflusst, denn da viele Unternehmen das Internet nutzten um mit Filialen oder Geschäftpartnern zu kommunizieren lag es nahe ein Netzwerk ähnlicher Struktur in den Unternehmen aufzubauen. Dadurch wurden Netzwerke in den neunzigern zu dem Verkaufsschlager. Sie förderten aber auch den Absatz der Großrechner, die seit Einführung des PC an Bedeutung verloren hatten. Zahlreiche Unternehmen mittlerer Größe erkannten das es sinnvoller war die Hausdaten auf einem Großrechner zu haben anstatt sich mit 40 abstürzenden PCs herum zu ärgern. Der Großrechner als Fileserver oder Datenbank Frontend wurde wieder en vogue.
Was nützte einem der tollste Computer wenn man ihn nicht programmieren konnte? Die ersten Rechner wie ENIAC (links) wurden noch durch Hardwareverdrahtung programmiert. Doch Anfang der fünfziger Jahre gab es schon einen Speicher und ein zentrales Rechenwerk, welche Befehle aus dem Speicher ausführte. Programmiert wurde indem man die Befehlsworte durch Schalter einklopfte. Da das sehr mühsam war ging man dazu aus den 8 Bit eines Bytes zwei Ziffern zu machen, wobei man die Buchstaben A-F dazu nahm um die Zahlen 10-16 auszudrücken. Dieses Hexadezimalsystem setzte sich später allgemein durch zur Angabe von Zahlen. Mit ein wenig mehr Speicher konnten die Befehle des Computers in einfache Abkürzungen gefasst werden und man konnte mit Variablen anstatt festen Zahlen arbeiten. Dies war die Geburt von Assembler, mit dieser Programmiersprache konnte man direkt den Prozessor programmieren.
Nachdem in den fünfziger Jahren Rechner mehr Speicher hatten ging man daran die Arbeit für den Programmierer zu vereinfachen. Anstatt die einfachen Anweisungen der Maschine sollte man den Computer in leicht verständlichen Befehle programmieren können. Es entstanden die ersten höheren Programmiersprachen wie FORTRAN (1957) oder COBOL (1959) oder LISP (1959). Damit war es auch möglich wenn man das Übersetzungsprogramm von einer höheren Sprache in die Maschinensprache hatte, den so genannten Compiler ein COBOL Programm auf unterschiedlichen Computern einzusetzen. Die ersten Computersprachen haben sich in einigen Bereichen in denen sie früh eingeführt wurden, bis heute gehalten, so COBOL bei Großrechnern für finanztechnische Aufgaben oder FORTRAN bei Supercomputern.
Der Nachteil der ersten Programmiersprachen war aber die Spezialisierung. Da Speicher knapp war beschränkte man sich auf einen Zweck. Mit FORTRAN konnte man mathematische Probleme lösen, aber keinen Text bearbeiten. Mit COBOL konnte man Finanzbuchhaltung machen oder Konten führen, aber keinen Sinus berechnen. In den sechziger Jahren gab es dann verschiedenste Versuche die Programmiersprache an und für sich, für alle Probleme zu erfinden. Zahlreiche Versuche kamen und gingen. Geblieben sind 3: Pascal (1971), ursprünglich eine Lehrsprache, C, (1972) eine sehr maschinennahe Sprache und ADA, eine Sprache die vor allem deswegen Bedeutung hat weil sie vom amerikanischen DoD entwickelt wurde und dort zur Pflicht erhoben wurde. Außerhalb des Bereiches Militär / Luftfahrt Raumfahrt hat sie aber keine Bedeutung.
Das nächste zur Vereinfachung war die objektorientierte Programmierung. Dabei werden Code und Daten nicht mehr getrennt sondern bilden ein ganzes. Zum Beispiel ist eine häufige Aufgabe das Sortieren. Da aber Zahlen ein anderes Format als Buchstaben haben muss der Code jeweils angepasst werden. Bei der objektorientierten Programmierung ist beides verbunden, wodurch der Programmierer von immer wiederkehrenden gleichen Anpassungen eines schon vorliegenden Codes entlastet wird. Obgleich es schon früh objektorientierte Programmiersprachen wie Simula (1967) und Smalltalk (1972) gab, setzte sich objektorientierte Programmierung erst mit C++ (1986) und Turbo Pascal 5.5 (1988) durch.
Der neueste Spross ist Java, eine Programmiersprache die eigentlich gedacht war um die unzähligen Mikrokontroller einfacher zu programmieren und Projekte übertragbarer von Rechner zu Rechner zu machen. Damit war sie aber die Sprache für das Internet, denn anders als andere Sprachen erzeugt sie keinen Maschinencode sondern einen Java Code der von einer "virtuellen Maschine" interpretiert wird. Jeder Computer für den ein solcher Interpreter existiert kann ein Java Applet ausführen - egal ob es ein IBM Großrechner oder ein PDA ist. Mehr zu der Entwicklung der Programmiersprachen in einem eigenen Artikel.
Ein Betriebssystem braucht jeder Computer egal wie groß oder klein er ist. Lange Zeit gab es nur Betriebsysteme die auf einen Rechner zugeschnitten waren. Der Erfolg von IBM machte aber auch aus, das ihre Großrechner sich weiterentwickelten, aber auf Softwareebene kompatibel waren. Systeme wie die hier abgebildete IBM 360 wurden dadurch zu Verkaufsschlagern. Eingeführt 1964 wurde Sie über ein Jahrzehnt als Linie weiterentwickelt.
Der wohl erste Rechnerübergreifende Standard war UNIX. 1970erfunden war nach Erfindung von C 1972 das Betriebssystem so konzipiert, das nur ein Kern an die Maschine angepasst wurde, alle anderen Programme lagen in C vor und konnten so durch Neu übersetzen übertragen werden. Durch die Multiuser und Netzwerkfähigkeiten setzte es sich bald bei Workstations und Minicomputern durch. Ein UNIX Derivat namens Linux hat seiner ersten Version 1991 sich enorm schnell weiterentwickelt.
Auch auf dem PC Markt gab es ein solches Betriebsystem: CP/M. Auch hier passte man nur die Systemroutinen an und konnte dann CP/M Programme auf seinem Rechner laufen lassen. Im Gegensatz zum späteren Standard MS-DOS mussten die PCs nicht dieselbe Hardware haben. CP/M lief sowohl auf einem C-64 mit einer Z80 Karte, wie auf einem Schneider CPC wie auf einem, Epson QX-10 mit 256 KB RAM, hochauflösender Grafik und Festplatte.
Auch bei den Lösungen war es zuerst so, das man diese selbst entwickelte. Das war angesichts der Leistung und Preise nur logisch. 1970 betrug die normale Speicherkapazität eines Großrechners 128-256 Kilobyte, bei einem Gerät welches Millionen kostete. So waren die Kosten für einige Programmierer, welche die optimale Software für den eigenen Betrieb schrieben, nur ein Nebenfaktor.
Doch mit größer werdenden Arbeitsspeicher war es sinnvoll zu abstrahieren. Denn was in den meisten Betrieben lief, war vom Kern her immer dieselbe Aufgabe: Fakturierung, Lagerverwaltung, Buchhaltung, Auftragswesen. SAP wurde erfolgreich mit einer an den Benutzer angepassten Software. Auf einen immer gleichen Datenbank Kern werden die Routinen kundenspezifisch angepasst. Dabei konnte SAP auch auf die Marktmacht von IBM bauen, denn deren Großrechner des Systems 370 waren fast überall vertreten, oder es gab "kompatible" Nachbauten von Amdahl, Siemens unter anderem.
Für Betriebsysteme wie CP/M und MS-DOS war es möglich Software in Serie zu produzieren, da man auf Routinen des Betriebsystems zugreifen konnte. Trotz dessen war Software lange Zeit teuer. Gängige Anwendungen kosteten noch bis Anfang der neunziger Jahre 1000-2000 Mark und der Preis für die Software konnte die der Hardware leicht übersteigen. Der Computer Osborne wurde so gut verkauft, weil man erstmals ein komplettes Softwarepacket beim Kauf umsonst dazu bekam. Als die Computerzeitschrift ct einen Osborne Bausatz veröffentlichte war sie über die Resonanz überrascht: Zahlreiche Leute kauften die Leerplatine mit dem Softwarepacket die es bei der ersten Ausgabe gab. Die meisten schmissen die Platine auf den Müll und behielten die Software. Später gab es immer wieder Aktionen die Hardware und Software bundelten, die als OEM Version recht preiswert war. Dank zunehmender Konkurrenz hat sich dies heute sehr gebessert. Nur bei Software mit Alleinstellungsmerkmalen oder die keine Konkurrenz hat ist es möglich hohe Preise zu verlangen.
denen heute noch einige Kult Charakter haben wie Pacman, Space Invaders oder Elite.
Speziell für Spiele waren die Spielkonsolen konstruiert, beschränkt in ihrer Hardware auf diesen Zweck kann man sie sehr billig produzieren und sie machen heute zumindest nach Stückzahlen dem PC Konkurrenz. Einige wie die Atari VCS-2600 haben sich über ein Jahrzehnt auf dem Markt gehalten.
Resümee
Auch wenn die Entwicklung stürmisch erscheint, gibt es über die Jahre jedoch eine Linie: Computer wurden immer kleiner, leistungsfähiger und preiswerter. Gleichzeitig wuchs der Markt enorm. I den fünfziger Jahren waren die wichtigsten Abnehmer von Computern staatliche Stellen wo Berechnungen durchgeführt wurden. In den sechziger Jahren zog der Großrechner in Betreibe ein und erledigte dort die Buchhaltung. Dies war schon ein größerer Markt. Die Minicomputer Ende der sechziger / in den siebziger Jahren waren nun schon für Abteilungen, Wissenschaftler und Ingenieure erschwinglich. Der Microcomputer eroberte in den achtziger Jahren zuerst das Büro und später die Wohnzimmer und heute wird viel mehr Umsatz mit Geräten die versteckte Computer beinhalten gemacht als mit diesen selber wie z.B. Handys, MP3 Spieler, DVD Recorder etc.
Firmen welche diese Tendenzen nicht wahrnehmen sind sehr schnell untergegangen. So ist es fast IBM gegangen die zu spät den PC Markt erkannten und später versuchten ihn mit eigenen Standards zu dominieren. DEC war die dominierende Firma im Minicomputersegment und Sie verschlief den Anschluss komplett. Sie wurde von Compaq übernommen.
Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.
Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.
Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.
Mehr über das Buch auf dieser eigenen Seite.
Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.
© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.Sitemap | Kontakt | Impressum / Datenschutz | Neues | Hier werben / advertisment here | Buchshop | Bücher vom Autor |