Home | Computer | Crays Supercomputer | Site Map | ![]() |
Ich
denke jeder von uns, der ein technisches Gerät hat ist fasziniert von den
Modellen die am High-end in der Leistung liegen. Also wer einen PKW hat, ist
vielleicht fasziniert von einem Formel 1 Rennwagen. Aber in keinem Bereich
liegt der Leistungsunterschied zwischen Alltagsgerät und Spitzenmodell so hoch
wie bei Computern. Meine Faszination mit den monolithischen Cray
Supercomputern begann mit einem Sonderheft der Zeitschrift „P.M.“ über
eine Cray 1 die
in Garching bei einem Max-Planck Institut in Garching, wo er vor allem
astrophysikalische Berechnungen ausführte. Das erschien 1982/83.
Seymour Cray war nicht nur der Firmengründer und Chef der Firma „Cray Inc“, er war auch der Chefingenieur und die Leistungen, die er auf dem Bereich der Computertechnik erbrachte sind legendär. Aber ich fange vielleicht mal an was ein Supercomputer überhaupt ist. Was unterscheidet einen Supercomputer von einem Großrechner, der Klasse in der Geschwindigkeit etwas niedriger angesiedelt? Nun natürlich ist es die Geschwindigkeit. Ein Großrechner leistete damals typisch 10 Millionen Instruktionen pro Sekunde – 10 MIPS. Es war aber auch das Anwendungsgebiet. Ein Großrechner wurde typisch von vielen Nutzern geteilt. Ein Großrechner in einer Bank konnte Hunderte oder Tausende von Terminals parallel betreiben, in denen Angestellte die Buchungen eintippten. Da jede dieser Aufgaben nur wenig Zeit benötigte, wurde die Computerzeit in kleine Zeitschlitze aufgeteilt und jeder Benutzer bekam einen Zeitschlitz zugeteilt, danach kam der nächste Benutzer dran. Da die Terminals die Eingaben zwischenspeicherten, merkten die Benutzer davon nichts. Ein Supercomputer arbeitete dagegen ein Programm ab, das aber mit voller Geschwindigkeit. Er nutzte also eine sehr alte Technik, das Batch-Prozessing wo die Aufgaben in einer Warteschlange landeten und nacheinander abgearbeitet wurden.
Ein Supercomputer war auch eigentlich kein kompletter Computer. Die damaligen Supercomputer von Draw wären bei einem PC so etwas wie das Mainboard, sogar noch etwas weniger. Sie bestanden eigentlich nur aus der CPU und dem Speicher. An sie musste man einen Großrechner anschließen, der die ganzen Daten entgegennahm und abspeicherte und sie mit den Programmen und Eingaben fütterte. Ich denke, dass war das, was mich damals am meisten beeindruckte: Die Cray hatte zwei Großrechner von Amdahl, jeder mit immerhin 8 MIPS nur für diese Aufgabe. Also die größten Rechner, die in der Wirtschaft arbeiteten, waren nur dazu da dem Supercomputer zuzuarbeiten. An die Großrechner wurden die Massenspeicher angeschlossen. Es gab aber auch die Möglichkeit diese direkt an den Supercomputer anzuschließen, dann gingen aber nur speziell angepasste Magnetplattenlaufwerke von Cray, mit einem Großrechner war man wohl flexibler. Auf jeden Fall brauchte man einen Computer um eine Cray überhaupt zu starten. Cray lieferte dazu eine angepasste Version eines Minicomputers von Data General mit aus. Er war das Gegenstück zur Tastatur, Bildschirm und Maus heute.
Doch wie kam Seymour Cray zu seinem damals legendären Ruf? Die Geschichte beginnt fast 20 Jahre vor meinem Interesse an den Rechnern. Dazu muss man nochmals etwas früher in die Geschichte gehen. Nachdem die ersten Computer erschienen waren, wurden neue Geräte auf die Anforderungen ausgelegt, die mögliche Käufer hatten. Das waren damals vor allem betriebswirtschaftliche Anwendungen. Computer machten die Lohnbuchhaltung, berechneten Versicherungsprämien, pflegten Bankkonten. Alle diese Anwendungen umfassten vor allem die Verarbeitung von Daten, weniger mathematische Berechnungen und wenn es Berechnungen gab, dann reichten einfache Operationen wie die Grundrechenarten. Es gab schon damals eine wissenschaftliche Nutzung von Computern, bei denen die Berechnungen viel wichtiger waren, weil sie den Hauptteil der Programme ausmachten. Das waren damals wie heute Simulationen. Die ersten Simulationen waren militärischer Natur. Man berechnete die Vorgänge, bei der Zündung von Kernwaffen – das sparte teure und die Umwelt versuchende Atomtests ein, aber auch die Optimierung der Aerodynamik von Flugzeugen. Dazu kamen naturwissenschaftliche Berechnungen. Man konnte ein Modell der thermonuklearen Reaktionen eines Sterns erstellen und berechnen wie er sich im Laufe seines Lebens verändert. Frühzeitig wurde schon die Genauigkeit der Wettervorhersage durch eine Simulation des Wetters verbessert. Aber dieser Markt war viel kleiner, denn es gab eigentlich lange Zeit nur zwei Kunden: das US-Militär und US-Spitzenforschungseinrichtungen. Bis auch Firmen wie Flugzeugbauer oder Automobilhersteller Supercomputer zur Produktentwicklung und -optimierung nutzen sollte es bis in die Achtziger Jahre dauern. Ebenso hinkten andere Industrienationen wir Deutschland in der Nutzung von schnellen Rechnern hinterher. So wurden Computer eben für die Anforderungen der Wirtschaft entwickelt. Es gab schon Ende der Fünfziger Jahre den Versuch spezielle Rechner für hohe Geschwindigkeiten zu entwickeln. Auf eine Ausschreibung der US-Energiebehörde (für die Berechnung der Vorgänge bei Kernreaktionen) wurden zwei besonders schnelle Rechner entwickelt ie mindestens zehnmal schneller als vorhandene Rechner waren. Aber beide Firmen machten Verluste, weil es eben jenseits dieser Nachfrage keine weiteren Kunden gab.
Mitte der sechziger Jahre trat dann Seymour Cray auf die Bildfläche. Er arbeitete als Chefingenieur bei der Firma CDC (Control Data Corporation) und er entwickelte die Cyber 6600. Die Cyber 6600 war bei ihrer Einführung 1964 der weltweit schnellste Rechner der Welt, dreimal schneller als IBM’s Topmodell. IBM hatte sich schon damals zum Marktführer bei Computern entwickelt. Und Der CEO von IBM J.R.Watson junior war darüber so erbost, dass er ein Memo schrieb, in der er sich wunderte, wie IBM von einer Firma deklassiert wurde die nur aus wenigen Angestellten bestand. Das Memo wurde bekannt als „Janitor-Memo“ weil Watson erwähnt, dass die Firma nur 34 Angestellte inklusive des Hausmeisters (Janitor) hatte. Die CDC-6600, die auch als Cyber 6600 bezeichnet wurde, war auf Geschwindigkeit optimiert. Es gab dazu einige technische Verbesserungen, die teilweise auch woanders eingesetzt wurden, aber hier zusammenarbeiteten. Der Rechner war für naturwissenschaftliche Probleme ausgelegt. Hier können -zahlenwerte sehr große Unterschiede haben. Beim Gravitationsgesetz, dass man für alle Simulationen im Universum aber auch die Berechnungen von Bahnen von Raumsonden braucht, haben wir als Eingabewerte die Gravitationskonstante (Zahlenwert: 6,67 x 10-11) und die Massen (Sonne z.B. 1,98 x 10+30) und Distanzen (1 Mrd. Km = 1012 m). Durch diese enormen Unterschiede in dem Wert kann man Berechnungen nicht wie bisher mit Festpunktarithmetik lösen bei denen man z.B. wenn es um Geldbeträge ging, mit Ganzzahlen arbeitete und vor der Ausgabe einfach das Komma um mehrere Stellen verschob. Ein interner Wert von 12345 würde z.B. für 123.45 Dollar stehen. Die Rechner mussten mit Fließkommazahlen arbeiten und mit einer Trennung von Wert und Zehnerpotenz. Also die Gravitationskonstante wurde als 667 als Wert und -11 als Potenz gespeichert. Die CDC 6600 ging noch weiter: ihr Rechenwerk arbeitete getrennt mit „normalen“ und Fließkommazahlen. Fließkommazahlen waren 60 Bit breit, normale Zahlen, mit denen auch der Speicher angesprochen wurde, nur 18 Bit breit.
Damit es noch schneller ging, wurde eine Pipeline eingeführt. Ein Befehl durchläuft bei der Ausführung mehrere Schritte und lastete bei jedem Schritt eine verschiedene Einheit in der CPU aus. Anstatt das man dies nacheinander tut, wird bei einer Pipeline bei jedem Takt ein Befehl geholt und in die Pipeline eingespeist, wo er dann die Einheiten durchläuft. Eine Pipeline mit 6 Stufen kann so bis zu 6 Befehle gleichzeitig abarbeiten und im Idealfall steigt so die Geschwindigkeit ebenfalls um den Faktor 6. Vor allem die Berechnungen brauchten aber lange, eine Einheit ist länger als einen Takt belegt. Daher erhöhte Cray noch die Anzahl der internen Einheiten, damit nicht eine komplexe Berechnung die Abarbeitung der ganzen Pipeline aufhält. Die CDC 6600 enthielt zehn Einheiten nur für die Berechnungen. Diese Architektur nennt man superskalar. Der Erfolg: Die CDC erreichte im Jahr 1964 eine Spitzenleistung von 3 MFLOPS.
Die
CDC 6600 war ein Achtungserfolg, aber das galt noch für einige Jahrzehnte –
kein Verkaufsschlager, es gab einfach zu wenige Abnehmer, geschätzt wurden 100
Stück produziert. Cray arbeitete noch an dem kompatiblen und leicht
verbesserten Nachfolgemodell
CDC 7600,
scheiterte aber bei dem Entwurf eines neuen Rechners: der CDC 8600. Die
CDC 8600 war
einfach zu komplex, Cray baute den Rechner, wie die Vorgänger aus diskreten
Transistoren und nicht aus integrierten Schaltungen auf. Er brauchte so zu
viele Elemente und das Design war technisch nicht umsetzbar. 1972 verließ er
CDC, um eine eigene Firma Cray Research zu gründen, damit er sich voll auf die
Entwicklung von Hochleistungsrechnern konzentrieren konnte. 1976 erschien die
Cray 1. Cray hatte dazugelernt und baute nun den Rechner aus integrierten
Schaltungen auf. Neu war die Vektorarchitektur. Neben der schon bekannten
Trennung von Ganzzahlen/Adressierung und Fließkommazahlen führte Cray die
Vektoreinheiten ein. Dahinter steckt eine Analyse von vielen
naturwissenschaftlichen Problemen. Bei denen werden oft Matrizen verarbeitet.
Jeder Wert einer Matrix wird auf die gleiche Art verarbeitet. Eine solche
Matrix für die Wettervorhersage könnte z.b. die Temperaturen eines Feldes von
1000 x 1000 km mit einem Gitter von 1 km enthalten. Anstatt jeden Wert einzeln
zu verarbeiten wurden bei einer Cray 1 64 Werte auf einmal verarbeitet. Da die
Recheneinheiten aber noch nicht 64-mal vorhanden waren, gab es ein Ergebnis
pro Takt, die normalen Berechnungen brauchten dagegen typisch 6-7 Takte für
eine Berechnung.
Was mich damals beeindruckte, war aber das Aussehen. Die Cray 1 (wie oben erwähnt reden wir immer nur von der Zentraleinheit) hätte auch in einer Lobby als Ruhepol stehen können. Es war ein Kreissegment (das ein „C“ formte) aus zwei Teilen: einem mannhohen inneren Teil und einem äußeren Ring, der auch gepolstert sein konnte. Der Rechner sah aus wie eine Säule mit Sitzbank, die auch angenehm warm war (darin steckte die Kühlung). Der Rechner war klein, der Unterschied zu anderen Großrechnern fiel vor allem auf, wenn man ihn in seiner natürlichen Umgebung mit vielen Band- und Magnetplattenlaufwerken sah, die viel mehr Platz einnahmen. Man sollte sich aber nicht beirren lassen: die enge Packung zusammen mit einer Flüssigkeitskühlung bedeutete das auf einer Fläche von 2 m² ein Gewicht von mehreren Tonnen lastete, bei Garching wurden eigens Stützpfeiler im Untergeschoss eingezogen, um die Last zu tragen.
Auf die Cray 1, die 1976 erschien, folgten verbesserte Nachfolgemodelle. Mit der Cray 1 XMP wurde erstmals eine Multiprozessormaschine eingeführt. Die Herausforderung lag zum einen in der Hardware, denn die Prozessoren mussten miteinander kommunizieren, Werte austauschen ohne das dadurch Geschwindigkeit verloren ging wie auch auf der Softwareseite – ein Compiler musste den Code so aufteilen, dass er beide Prozessoren auslastete. Schon bei der Cray XMP gab es daher in der Firma Diskussionen über den Kurs. Cray selbst arbeitete an der Cray 2: auch eine Multiprozessormaschine, aber schneller, noch kleiner, die Schaltungen schwommen nun im Kühlmittel, damit dies möglich war und wesentlich mehr Speicher. Während andere Ingenieure bei Cray die Cray 1 Architektur weiter verbesserten, weil sich diese Maschinen besser verkauften gab es einen firmeninternen Konflikt über die weitere Forschungsrichtung. Nach der Cray 2, die 1985 erschien, verließ Seymour Cray seine Firma, genauer gesagt, sie widre gesplittet in einen Teil (Cray Inc) der kommerzielle Rechner weiter entwickelte und einem Teil „Cray Research“, die neue fortschrittliche Rechner entwickelte. Offiziell war dies eine Symbiose: Cray Inc baute das, was man am besten verkaufte und Cray Research entwickelte neue Technologien für noch schnellere Rechner.
Seymour Cray arbeitete bei Cray Research an seinem nächsten Rechner, der Cray 3. Doch die Entwicklung zog sich hin. Der Grund war relativ einfach: Die Geschwindigkeit war physikalisch bedingt immer schwerer steigerbar. In den Dekaden von 1950 bis 1960 und 1960 bis 1970 stieg die Geschwindigkeit von Schaltungen um den Faktor 100, zwischen 1970 und 1980 nur noch um den Faktor 10. Seymour Cray wollte Galliumarsenid als Halbleiter einsetzen. Diese Verbindung schaltet viel schneller als Elemente aus Silizium und Galliumarsenid wird heute z.B. bei der Wandlung von Lichtimpulsen in Glasfaserkabeln in elektrische Impulse und umgekehrt eingesetzt. Die Technik war aber in den Neunziger Jahren noch nicht einsatzreif. Das Hauptproblem war aber das seine Rechner aus vielen integrierten Schaltungen – über 100.000 pro Rechner bestanden. Dass die Rechner immer kleiner wurden, lag daran, dass bei der Steigerung des Taktes die Schaltungen zusammenzurücken mussten. Schon sein Erstling, die CDC-6600 hatte die ungewöhnliche Form eines Kreuzes – es war bei rechteckigen Schränken die Form, wo die entferntesten Teile den kürzesten Abstand zum Zentrum hatten. Die folgenden Modelle waren um die Abstöände weiter zu reduzieren dann kreisrund. Innerhalb eines Taktes musste ein Signal alle Schaltungen bis zur letzten passieren. Neben den Verzögerungen beim Schalten haben elektrische Signale aber auch eine endliche Geschwindigkeit beim Durchlaufen der Leitungsbahnen – maximal die Lichtgeschwindigkeit, meist aber weniger. Das sind knapp 30 cm in 1 ns. Kabel in der Cray 1 waren immer ein Vielfaches von 30 cm lang. Die Cray 3 hatte einen Takt von 500 MHz, damit durfte kein Weg im Rechner länger als 60 cm sein, der Rechner hatte so nur einen Durchmesser von 107 cm und war etwas größer als eine Waschmaschine. Cray Research konnte nur zwei Kunden für die Cray 3 gewinnen und ging so bankrott.
Letztendlich war bei der Technologie bei der eine CPU aus hunderten von Platinen besteht einfach der Takt nicht so steigerbar wie dies nötig war. Die Cray 1 hatte, als sie 1976 herauskam, einen Takt von 80 MHz. Die Cray 3 erreichte knapp 20 Jahre später 500 MHz, es gelang also den Takt nur um den Faktor 6 zu steigern. Dagegen stieg der Maximaltakt eines Mikroprozessors in derselben Zeitspanne von 3 auf 100 MHz, also um den Faktor 33 und er betrug nun schon 20 Prozent des Taktes einer Cray 1.
Die bisher Vektorrechner bauende „Hauptfirma“ Cray Inc schwenkte Anfang der Neunziger weg von den monolithischen Architekturen der Vektorrechner auf Parallelrechner: Sie bestehen aus vielen parallel an einer Aufgabe arbeitenden Hochleistungsmikroprozessoren. Anders als Supercomputer stiegen die Rechengeschwindigkeiten von Prozessoren für PC nämlich weiter an. Intel versuchte früh (schon ab dem 8086) viele Prozessoren zu einem Rechner zu kombinieren und diese Rechner als Supercomputer zu verkaufen. Mit dem Pentium Pro, der speziell für diesen Einsatz optimiert wurde, hatte Intel Erfolg: Erstmals war ein Rechner mit PC-Prozessoren im Jahre 1997 der schnellste Rechner der Welt. Der ASC-Red hatte nicht weniger als 9.268 Pentium Pro Prozessoren. Die Aufgabe war es, wie schon beim Übergang von der Cray 1 zur Cray X-MP die Rechnungen auf die Prozessoren zu verteilen nur eben auf viel mehr Prozessoren deren Speicherbus auch nicht auf das Teilen mit anderen Prozessoren ausgelegt war. Cray Inc. Nutzte für die ersten Parallelrechner übrigens Alpha-Prozessoren. Heute sind fast alle weltschnellsten Rechner solche Parallelrechner. Crays Erfindungen werden nach wie vor eingesetzt. Die Pipeline führte Intel beim 80286 ein. Der Pentium hatte erstmals superskalare Fähigkeiten und die Vektorberechnungen findet man heute in Form der AVX-Erweiterung in jedem Prozessor. Unterstützt werden die CPUs von Hochleistungsrechnern durch GPU, die eigentlich für Spiele entwickelt wurden und Hunderte oder Tausende von Recheneinheiten haben, die bei parallelen Operationen natürlich noch besser geeignet sind.
Die
physikalischen Grenzen, die Vektorrechner schlussendlich begrenzten, gelten
aber auch für CPU. Ihr Takt ist heute höher als der einer Cray der damaligen
Zeit. Aber nur deswegen, weil eine CPU maximal 2 cm Kantenlänge hat und nicht
107 cm wie bei der Cray 3. Nachdem der
Pentium 4 im
Jahre 2000 die Marke von 3 GHz erreicht hatte, stiegen die CPU-Takte immer
langsamer an. Von 1975 bis 2000, also in ersten 25 Jahren von 3 auf 3000 MHz,
in den letzten 25 Jahren aber nur von 3 auf 6 GHz.
Was die heutigen Supercomputer nicht mehr haben, ist der ästhetische Charme, auch wenn die Kabinette (Schränke) heute bunt bemalt werden. Eine Cray 1 bis 3 sah einfach cool aus, ein Rechner, der ästhetisch und kompakt ist. Heutige Supercomputer bestehen aus Hunderten bis Tausenden von Schränken, jeder so groß wie ein kleiner Kleiderschrank und sie belegen enorm viel Platz. Schon der erste Paralellrechner ASC Red belegte 1.600 m², also so viel wie sechs Tennisplätze oder ein halbes Fußballfeld. Dafür brauchte er eine eigene Halle und ein eigenes Kraftwerk. Der beim Schrieben des Blogs schnellste Rechner ist der El Capitain mit 11 Millionen Kernen und 44.000 CPUs und weitere GPUs. Er belegt eine Fläche von 600 m² und verbraucht 30 MW Strom.
Der Rechner steht im Lawrence Livermore Lab, der Kernforschungszentrale der USA, die schon früher der beste Kunde von Supercomputern war. Was sich allerdings geändert hat, ist das seit den Achtziger Jahren vermehrt die Wirtschaft eigene Supercomputer betreibt. Zuerst gemeinsam mit Forschungseinrichtungen, dann bauten sie eigene Kapazitäten auf. Firmen wie Exxon nutzten Supercomputer, um seismische Daten auszuwerten auf der Suche nach Erdöl und Erdgaslagerstätten. Das spart Sondierungen die sehr teuer sind. Flugzeugbauer und Automobilhersteller optimierten über Strömungssimulationen die Aerodynamik ihrer Produkte und sparten so viel Zeit in Windtunneln. Motorenhersteller simulierten die Vorgänge bei einem Verbrennungsmotor und optimierten diese, sodass die heutigen Motoren viel weniger Benzin pro PS verbrauchen als vor einigen Jahrzehnten. Mit dem KI-Trend wird die Nachfrage noch steigen, dafür braucht man enorme Rechenkapazitäten. In den Modellen der KI, wie sie in ChatGPT oder Gemini eingesetzt werden, stecken Hunderttausende Stunden an Rechnungen. Allerdings braucht man dafür eine andere Architektur: Anstatt mit 64 Bit-Fließkommazahlen rechnen solche Modelle mit nur 8 oder 16 Bit breiten Werten. Dafür sind die schon als Coprozessoren eingesetzten GPUs viel besser geeignet, da diese schon aus Tausenden von Recheneinheiten bestehen, die nativ nur 16 oder 32 Bit breite Werte verarbeiten – Farbwerte in Spielegrafiken sind eben 16 oder 32 Bit breit. NVIDIA hat durch den KI-Trend – sie sind der führende Hersteller von KI-GPUs - den Firmenwert in fünf Jahren in der spitze um 2000 Prozent steigern können und war zeitweise mehr wert, als alle DAX30 Unternehmen zusammen.
Was Supercomputer heute von einem PC unterscheidet und die technsiche Expdertise von Cray, HP oder IBM ist, die diese Rechner herstellen sind die speziellen Speicher- und Netzwerkarchitekturen die es ermöglichen das Tausende von Prozessoren zusammenarbeiten, ohne das die Reibungsverluste durch Warten oder gemeinsamen Speiucherzugriff zu groß werden.
Vieles was Seymour Cray erstmals in seinen Rechnern eingeführt hat, ist heute ein selbstverständlicher Teil von CPU-Architekturen. Dieser Artikel informiert über einige der Errungenschaften. Technisch gesehen waren seine Rechner übrigens RISC-Computer.
Zwei Videos aus den Achtzigern zum Anschauen von den Computer Chronicles
https://www.youtube.com/watch?v=6Dn6vLCN4F0&ab_channel=TheComputerChronicles
Die Sendung von 1984 beschäftigt sich mit neuen Technologien für mehr Geschwindigkeit und der Bedrohung der US-Industrie durch japanische Vektorrechner – Japan blieb lange Zeit der Vektorarchitektur treu und der NEC SX Aurora war vor einigen Jahren noch der schnellste Rechner der Welt.
https://www.youtube.com/watch?v=yDfz7tgf3OE&ab_channel=TheComputingChronicles
Die Sendung von 1987 gibt einen guten Einblick über den Einsatz von Supercomputern und ihren Vorteilen gegenüber Experimenten.
Artikel zuletzt geändert am 17.4.2025
Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.
Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.
Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.
Mehr über das Buch auf dieser eigenen Seite.
Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.
© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.Sitemap | Kontakt | Impressum / Datenschutz | Neues | Hier werben / advertisment here | Buchshop | Bücher vom Autor |
![]() |