Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 299: 13.10.2012 - 16.10.2012

13.12.2012: Das Skylon Konzept

Ich wurde gefragt was ich von diesem Konzept hatte, und muss sagen, ich hatte bisher nichts davon gehört. Wenn das verwundert, ich verfolge nicht jedes Konzept das es irgendwie schafft genügend Kapital für Entwicklungen zu bekommen, denn ich habe schon zu viele scheitern gesehen (Kistler, Kelly Aerospace, Rocketplane ...) und die wo es schaffen präsentieren dauernd irgendwelche neuen Entwicklungen ohne viel über die Technik zu verlieren, machen es also Berichterstattern unnötig schwer (SpaceX, Scaled Composites, Bigelow).

Also habe ich mir zuerst einmal angesehen, was die Wikipedia und der Hersteller drüber schreibt. So wie es dort steht haben wir ein Flugzeug, dass ab Mach 5,4 auf einen Raketenantrieb umschaltet. Sofort fallen mir einige Wenn's auf:

Ich kenne kein Triebwerk, das gleichzeitig wie ein Raketentriebwerk arbeitet oder wie ein Düsentriebwerk. Scramjets oder Staustrahltriebwerke kommen zwar ohne die Turbinen aus, die Luft komprimieren und die man bei Düsentriebwerken braucht und ähneln so schon mehr einem Raketentriebwerk als einem Düsentriebwerk, aber sie benötigen dafür einen großen Luftstrom, arbeiten also erst bei hohen Machzahlen. Derzeit erproben DoD und NASA solche Konzepte und hier beschleunigt eine Pegasus-Erststufe den Scramjet auf die erforderliche Geschwindigkeit. So war dies auch bei den Konzepten vorgesehen, als man in den fünfziger Jahren an Scramjets dachte um Atomwaffen nach Russland zu befördern. Diese Konzepte wurden dann zugunsten der Interkontinentalrakete aufgegeben.

Das Sabre Triebwerk scheint irgendetwas dazwischen zu sein. Vorne hat es eine normale Turbine, dann folgt ein Raketentriebwerk. Nun sind aber die Turbinen sehr hohen Temperaturbelastungen bei hohen Geschwindigkeiten ausgesetzt, denn ihre Rotorblätter erzeugen viel Widerstand.

Die NASA arbeitete in den Achtzigern an der Erforschung eines Systems das den Shuttle ersetzen könnte. Es bestand aus einer Grundstufe mit Staustrahltriebwerken, die eine herkömmliche Raketenoberstufe startet. Sie stellten es ein, weil sie massive Probleme bekamen. Nicht mit den Triebwerken, sondern der Reibung bei Mach 6. Die Oberfläche erhitzte sich soweit, dass auch hochtemperaturfeste Werkstoffe an Stabilität verloren. Schon das schnellste Flugzeug das gebaut wurde, die SR-71 erreichte an den Triebwerkseinlässen 480 - 585 °C. Das nimmt mit höherer Geschwindigkeit stark zu, auch ein Grund, warum Jagdflugzeuge sich auf Mach 2 beschränken. Ein weiterer Grund ist der hohe Treibstoffverbrauch. Bei der SR-71 betrug der Treibstoffanteil 47% bei 4.800 km Reichweite. Beim A-380 sind es bei 47% bei 14.200 km Reichweite. Der Treibstoffverbauch ist also dreimal so hoch. Der Effekt ist auch bei der Concorde zu sehen, die mit 51% Treibstoffanteil nur 6660 km weit kam.

Ich kann nicht beurteilen ob dieses Triebwerk technisch möglich ist, aber es wird dieselben Temperaturprobleme haben wie die NASA Entwicklungen die schließlich, weil sie nicht lösbar waren aufgegeben wurden und es wird Treibstoff benötigt um Mach 5,4 zu erreichen und nach der Rückkehr wieder zu landen. Nehmen wir an, dies wäre doppelt so viel wie die SR-71 benötigt und wir reden von einer Gesamtstrecke für den angetriebenen Flug in der Atmosphäre so sind dies schon 19% der Startmasse bei Kerosin, entsprechend rund 6,3% bei Wasserstoff.

Das leitet mich zum nächsten Punkt über. Ich halte die angegebene Nutzlast für unmöglich. Für den mit Raketenantrieb zurückgelegten Teil kann man mit bekannten Gleichungen rechnen. Nehmen wir an, das Triebwerk erreicht die Leistung des SSME (Ausströmgeschwindigkeit 4460 m/s) und eine Gesamtgeschwindigkeit von 9.100 m/s (1.300 m/s Gravitationsverluste und Höhenarbeit) so muss bei einem Start mit Mach 5,4 (1837 m/s) noch 7263 m/s aufgebracht werden. Nach der Ziolkowski Gleichung muss dann das Start/Endlmasseverhältnis 5,096 betragen. Bei 56 t im Orbit also rund 285,38 t beim Start. Nun beträgt die Startmasse aber nur 275 t und dies ist die mit dem Wasserstoff den man auch in der Atmosphäre braucht. Bei einer Landung von 66 t Wasserstoff und 150 t Sauerstoff (nach Hersteller( beträgt das Verhältnis 2,27:1. Raketentriebwerke arbeiten mit 6:1, also rund 41 t Wasserstoff wurden verbraucht um die Geschwindigkeit Mach 5,4 zu erreichen. Das passt auch zu den 250 t Sauerstoff aus der Luft die bis dahin aufgenommen wurden (6,09 zu 1).

Nur beträgt dann die Startmasse beim Start mit Mach 5,4 nur noch 234 t und im Orbit sollten dann noch 46 t ankommen - 5 t anstatt 12 t Nutzlast.

Das nächste ist die Frage wo der Treibstoff denn hinkommen soll. Das Skylon hat eine maximalen Durchmesser von 6,25 m und eine Länge von 82 m. Da es pfeilförmig geformt ist, nehme ich mal als Volumen die Hälfte eines Zylinders dieser Größe an. Davon gehen noch 12,3 m für die Nutzlastbucht ab. Das wäre ein Volumen von 920 m³. 66 t LH2 haben ein Volumen von 956 m³, 150 t LOX 132 m³. Das sind also schon mal mehr, als das Innenvolumen beträgt,

Das nächste ist dann die Rechnung ob es sich finanziell lohnt. Wie beim Space Shuttle wird eine Reduktion der Kosten in den Orbit versprochen. Sie sollen nur noch 800 Euro/kg betragen. Doch dafür müsste man 12 Milliarden Dollar investieren. Erstmals: Gerade das Shuttle lehrte, dass es nicht so einfach ist. Es flog weniger oft, die Wartung war teuer und lang andauernd. Das könnte auch beim Skylon so sein. Selbst wenn: Es gehört sich für eine Wirtschaftlichkeitsrechnung nicht nur den Treibstoff und den Flugkörper zu berechnen sondern auch die Entwicklungskosten. 12 Milliarden für 12 t Nutzlast sind viel. Bei Ariane 6 rechnet man mit mehr Nutzlast mit nur 4 Milliarden. Also diese 8 Milliarden mehr, müsste man auf die Flüge umrechnen.

Vor allem gibt es aber nicht die Nutzlasten. 12 t gelangen nur in einen 300 km Equatorialorbit. Schon zur ISS, werden es weniger sein, wenn ich obige Zahlen nehme, wahrscheinlich nur noch 9-10 t. Der lukrative Transport in den GTO geht gar nicht. Damit wird es sicher nicht viele Flüge geben, denn wir reden ja von einem europäischen System. Aufträge seitens der US-Regierung gibt es dann nicht und in Europa allerhöchstens die wenigen Flüge der Vega oder Sojus in erdnahe Orbits. Wenn man eine zusätzliche Stufe mitführt unter günstigen Umständen vielleicht noch 6 t. Diese ist natürlich nicht wiederverwendbar und erhöht dann den Startpreis dramatisch. Doch dies nur wenn es wirklich 12 t sind. Wie oben errechnet sind es eher 5 t. Bei 12 t Nutzlast dürfte das Gefährt nach Verbrauch der 41 t LH2 entweder nur noch eine Endgeschwindigkeit von 8460 m/s (mit Verlusten) erreichen oder es müsste eine Ausströmgeschwindigkeit von 4890 m/s aufweisen, was technisch unmöglich ist, vor allem wenn man die kurzen Entspannungsdüsen sieht. Wie alle Einstufenkonzepte ist Skylon sehr anfällig gegenüber dem Ansteigen der Leermasse. Hier sind es 43 t Leermasse und nur 12 t Nutzlast. Steigt sie nur um 10%, so kostet das ein Drittel der Nutzlast. Dabei ist diese schon sehr günstig gerechnet. Nur als Vergleich, der Space Shuttle Tank, der nicht einen Wiedereintritt übersteht wiegt 27,2 t bei 8,38 m Durchmesser und 47 m Höhe Skylon ist schlanker (6,25 m Durchmesser) aber fast doppelt so lang (82 m).

Also ich sehe viele Wenn's und Aber's. Aber ich lasse mich gerne eines besseren belehren, nur bezweifle ich dass ein privater Unternehmer die 12 Milliarden Entwicklungskosten zusammenbekommt und wenn, dann ist der Markt relativ klein.

14.10.2012: Das Aufkommen der Massiv Parallelen Rechner

In den Achtziger Jahren war der Begriff "Supercomputer" praktisch simultan belegt mit der Architektur eines Vektorrechners. Diese von Seymour Cray und seinen Nachfolgern bei Cray Research entwickelte und eingesetzte Architektur, erlaubte es pro Takt eine Registeroperation durchzuführen. Im Normalfall besteht die Ausführung eines Befehls aus drei Operationen:

Bei einer Vektoroperation fielen die ersten Schritte nur einmal an, lediglich pro Registeroperation gab es einen weiteren Ausführungszyklus. So war die Ausführung natürlich deutlich beschleunigbar, wenn die Anwendung so gestrickt war, das ein und dieselbe Rechnung bei sehr vielen Zahlen durchgeführt wird. Das war bei vielen Simulationen gegeben, bei denen man in Tausenden oder Millionen von Zellen immer mit denselben Gleichungen rechnete. War dies nicht der Fall, so waren Vektorrechner deutlich langsamer.

Der Preis für die damaligen Supercomputer war, dass sie aus eigenen Bausteinen bestanden, die speziell für sie gefertigt wurden. Bei Cray sehr lange in ECL-Technologie, einer Halbleitertechnologie mit sehr geringen Schaltzeiten, aber sehr hoher Verlustleistung, die dadurch keine sehr hohe Integration zuließ. Die Cray 1 wog 5,5 t und hatte eine Verlustleistung von über 115 kW. Auch wenn die Firma in den achtziger Jahren dazu überging, anstatt ECL-Bausteinen zumindest beim Speicher schnelles statisches RAM einzusetzen, änderte sich daran nichts, dass die CPU immer noch aus ECL-Bausteinen bestand.

Zur selben Zeit gab es aber auch die ersten Versuche einen schnellen Rechner aus Standard-Mikroprozessoren zusammenzustellen. Der erste war der "Cosmic Cube", der ab 1981 als dreidimensionaler Würfel aus 4 x 4 x 4 = 64 Prozessoren entstand. Anfangs wurden 8086 mit 8087 Coprozessor gewählt, das war eine Notlösung, weil nur die 8086 damals einen numerischen Coprozessor hatte, der die Geschwindigkeit bei Fließkommaoperationen um bis zum Faktor 100 beschleunigte.

Ursprünglich nur als Experimentalprojekt gedacht, war der Rechner immerhin 5-10 mal schneller als der Standardminicomputer dieser Tage, die VAX 11/780. Dabei kostete er mit Herstellungskosten von 80.000 Dollar nur halb so viel. Der Cosmic Cube konnte noch nicht in die Bereiche eines Supercomputers vorstoßen, aber immerhin einen Minicomputer ersetzen,

1986 entstand mit dem 68020 Prozessor eine weitere Version, die mit einem Weitek Coprozessor bei 8 MHz 16 MFlops pro Knoten (aus zwei Prozessoren) erreichte. Ein 128 Knotensystem erreichte 1989 bei Anwendungen eine Geschwindigkeit von 500 MFlops, womit dieser Cosmic Cube schon in den Bereich der Supercomputer vorstieß.

Die Firma NCube baute basierend auf selbst entwickelten RISC-Chips Rechner mit bis zu 1024 Prozessoren. Intel veröffentlichte mit dem iPSC (Intel Personal Supercomputer) eine Serie basierend zuerst auf dem 80286/7 und später (ab 1990) auf dem i860. 1990 erreichte eine iPSC/860 mit 128 Prozessoren eine Maximalleistung von 7,6 GFlops zu dem moderaten Preis von 5,5 Millionen Mark.

Anfangs suchte man nach der besten Vorgehensweise wie man die Prozessoren vernetzt und optimal auslastet. Die Rechner der Firma Thinking Maschine zeigen dies sehr deutlich. Sie alle hatten die Bezeichnung "CM" für Connection Maschine. Die erste CM-1 hatte schon 65536 Prozessoren, die jedoch nur jeweils 1 Bit verarbeiteten. Sie waren in Form eines Hypercubes verbunden. Die CM-1 war noch kein Universalrechner, sondern für die Programmierung in LISP für Probleme aus dem Bereich künstlicher Intelligenz ausgelegt.

CM-2 setzte das SIMD Prinzip ein: Single Instruction, Multiple Data. Ein Kontrollprozessor schickte einen Befehl an die Rechenprozessoren und diese bearbeiteten die Daten im lokalen Speicher. Das Prinzip des Vektorrechners ist solch eine SIMD Implementierung. Eine zweie Möglichkeit und bei vollwertigen Mikroprozessoren besser geeignet ist die MIMD Vorgehensweise: Multiple Instruction, Multiple Data. Dabei arbeitet jeder Mikroprozessor ein eigenes Programm mit eigenen Daten ab. Die CM-2 war die erste universell einsetzbare. Die !-Bit Prozessoren wurden durch einen Weitek Coprozessor unterstützt, der von je 32 Prozessoren geteilt wurde.

Mit der CM-5 setzte die gleiche Firma beide Verfahren zusammen um. Sie wechselte auch auf normale Industrieware. Die CPU war nun ein Sun SPARC 32-Bit-Prozessor, der alleine arbeiten konnte. Er war der MIMD Teil. Er wurde jedoch um eine eigens entwickelte Vektoreinheit ergänzt, die Vektoroperationen 25-mal schneller als die SPARC CPU abarbeiten konnte. eine CM-5 mit 1024 Prozessoren erreichte 128 GFlops und war damals (1992) der schnellste Rechner der Welt, mehr als doppelt so schnell wie eine Cray 90. Damit gab es Ende der achtziger Jahre schon eine Alternative zu den Vektorrechnern die deutlich preiswerter waren.

Trotzdem blieben viele Kunden bei den Vektorrechnern, obwohl sie Anfang der neunziger Jahren weder die schnellsten Rechner waren, noch preisgünstig. es waren die praktischen Fortschritte die (noch) den Ausschlag für die Vektorrechner gaben. Vektorrechner hatten nun zwar auch mehrere Knoten, doch stellten die sich aus Programmsicht als mehrere Recheneinheiten dar. Alle Rechner griffen aber auf denselben Arbeitsspeicher zu. Es gab also ein Programm, das alle Knoten steuerte. Dagegen gab es bei den Multiprozessorrechnern pro Prozessor ein Programm. War eine Routine abgearbeitet, so mussten sich die Prozessoren synchronisieren und die Rechenergebnisse austauschen - zumindest bei den Anwendungen, die nicht isoliert auf einem Prozessor laufen konnten.

In den neunziger Jahren führte die Einführung eines schnellen gemeinsamen Speichers für den Datenaustausch zum Durchbruch der massive parallelen Rechnern. Es war aber auch ein anderer Grund für den Wechsel zu dieser Technologie entscheidend: Es gelang kaum noch die ECL-Technologie in der Geschwindigkeit zu steigern. Von 1976 bis 1990 stiegt die Taktfrequenz einer Cray von 80 auf 438 MHz. In derselben Zeit stieg sie bei Mikroprozessoren von 4 auf 40 MHz und die Verarbeitungsbreite stieg von 8 auf 32 Bit. Alks dann die Verarbeitungsbreite kaum noch anstieg stieg die Taktfrequenz noch schneller an. Etwa 20 Jahre später ist auch die Taktfrequenz bei Mikroprozessoren an eine Grenze gekommen, die kaum noch steigerbar ist. bei mehr als 3 GHz wird die Luft dünn.

Schließlich wechselte auch Cray Mitte der neunziger Jahre von der Technik der Vektorrechner auf den Paralellbetrieb vieler Prozessoren. Speziallösungen, wie die von NCube oder Erweiterungen gängiger Prozessoren wie bei der CM-5 verschwanden nach und nach vom Markt wie der Intel 860, der auch SIMD Instruktionen hatte. Heute dominieren die beiden Marktführer bei PC-Prozessoren Intel und AMD auch bei den Supercomputern. Danach kommt IBM mit dem Power Prozessor, die nur wenige Systeme im Einsatz haben, dafür aber diese sehr weit oben platziert (mit sehr vielen Prozessoren).

Was bei immer mehr Knoten (so wird meistens ein austauschbarer oder erweiterbarer Teil eines Computers genannt, das kann eine Platine mit mehreren Prozessoren oder ein Rack-Einschub sein) aufkam, war die Forderung Daten auszutauschen. Frühe Konzepte nutzten dazu noch einen gemeinsamen Speicher. Doch zum einen wurde auch Speicher kaum noch schneller, da er meist aus billigem DRAM bestand, dessen Zugriffszeit sich kaum noch steigern lässt und zum andern gibt es mehr und mehr Konflikte bei immer mehr Prozessoren. Als Supercomputer mit vielen Prozessoren dann nicht mehr in einen Schrank passten, musste sowieso eine neue Lösung her. Früher wurden vorwiegend proprietäre Netzwerke eingesetzt, heute dominieren normale Industrietechnologien wie Gigabit Ethernet oder 10G Ethernet oder Varianten des Infinibands.  In der Vernetzung liegt heute die Stärke der Firma Cray, die sonst auch nur Opterons wie alle anderen Hersteller einsetzt. Ihr Gemini-Interconnect ist ein proprietäres System, aber um einiges leistungsfähiger als andere Lösungen.

In neuerer Zeit bekommen die Prozessoren selbst wieder Konkurrenz. Vor einigen Jahren brachte IBM den Cell Prozessor auf den Markt: Ein Verbund einer Power-PC-CPU und acht einfachen Recheneinheiten die jeweils 4 Zahlen einfacher Genauigkeit parallel verarbeiten konnten. IBM konnte einen Achtungserfolg verbuchen, jedoch nicht die Spitzenposition erreichen. Danach besannen sich die Grafikkartenhersteller NVidia und ATI dieses Marktes. Geht es nur nach purer Rechenleistung, so sind schon seit über 10 Jahren Grafikkarten viel leistungsfähiger als PC-Prozessoren. Während diese Mitte 2012 zwischen 2 und 16 Kerne haben, hat der aktuell schnellste Chip im HPC Umfeld (High-Performance Computering) GK-104 "Kepler" 1536 Recheneinheiten. Jede ist primitiver als ein PC-Prozessor, der Speicher auf den Graphikkarten ist zwar schnell, aber vergleichsweise klein und die Shader können auch keine große und komplexe Programme abarbeiten, doch sie können schnell rechnen. Die GK-104 CPU erreicht 1900 GFlops, während Intels leistungsfähigstes Exemplar bei rund 100 GFlops alt aussieht. Aufgrund der Einschränkungen in der Programmierung, die doch deutlich von dem normaler Prozessoren abweicht und des relativ kleinen Speichers auf den Grafikkarten werden sie heute vorwiegend als Coprozessor eingesetzt. ATI und NVidia haben jedoch viel getan um Mängel zu beseitigen. So war vor einigen Jahren die Geschwindigkeit in doppelter Genauigkeit, dem Standardformat für Rechnungen im wissenschaftlichen Bereich (15-16 Stellen Genauigkeit) sehr niedrig und lag bei einem Achtel der Geschwindigkeit bei einfacher Genauigkeit. (7-8 Stellen) Inzwischen ist sie halb so groß. Auch der Speicher für die "Shaderprogramme" und deren Komplexität wurde erhöht.

Auf der anderen Seite versucht auch Intel in diesen Markt einzudringen. Seit 2009 wurde unter der Bezeichnung "Larrabee" eine GPU entwickelt. Das Konzept von Larrabee, mit 256 sehr einfachen Recheneinheiten wurde dann gekippt und unter "Xeon Phi" erscheint die GPU nun mit nur 50 Kernen, die jedoch vollwertige Pentium Kerne sind. Damit soll eine Karte ebenfalls 1 Terraflop schaffen - zwar nur halb so schnell wie NVidias Karte, aber auch nur mit einem Dreißigstel der Prozessorenzahl.

Was sich allerdings auch geändert hat, ist der Platzbedarf. Eine Cray konnte man noch im Wohnzimmer aufstellen. Man brauchte zwar eine verstärkte Decke wegen der 5,5 t Gewicht, aber der Rechner hatte einen Durchmesser von weniger als 3 m. Der im Juni 2012 schnellste Rechner, der Sequoia - BlueGene/Q mit fast 1.6 Millionen PowerPC Prozessoren besteht aus 96 Racks, jedes so groß wie ein kleiner Kleiderschrank und füllt damit eine kleine Halle aus. Dabei handelt es sich um eine Variante mit sehr energiesparenden Prozessoren die von einer Embedded Linie abstammen. Sie können daher deutlich dichter gepackt werden als PC-Prozessoren.

Konkurrenz bekommen diese Systeme neuerdings durch das Internet. Weltweit gibt es Hunderte Millionen PC, die meisten davon hängen am Internet und die meisten werden von ihren Benutzern selten voll ausgenutzt. Bei typischer Schreibtischarbeit ist der Prozessor größtenteils nahe des Ruhezustands.

Schon Ende der neunziger Jahre kamen verschiedene Organisationen darauf, diese Ressource zu nutzen. Eines der ersten Projekte war SET@Home. Millionen von Nutzern holten sich ein kleines Datenpaket mit empfangenen Daten eines Radioteleskops ab und je nach Geschwindigkeit des Prozessors wurde in 10-40 Stunden nach intelligenten Signalen gesucht. Nur zum Abholen der Daten und senden deer Ergebnisse musste das Programm den Server von SETI kontaktieren. Dazwischen arbeitete es autonom. Das führte zu Nachahmern. Man kann heute nach Heilmitteln für Kerbs, Beweisen für Einsteins Relativitätstheorie etc. suchen. alle diese Projekte nutzen Rechner die über das Internet Daten zum Auswerten bekommen. Jeder einzelne hat nur eine kleine Leistung, aber die Masse macht es. Wenn die Anwendung es zulässt, dann spart dies eine Menge Geld. Derartige Anwendungen gibt es. Sucht man nach Medikamenten, so untersucht man, ob ein Stoff wenn man ihn dreht, in das funktionale Zentrum bekannter Moleküle passt. Das ist durchaus aufwendig und bei vielen Enzymen kann man jede Kombination Wirkstoff/Enzym mit einem Rechner untersuchen lassen. Das erkannten auch Pharmafirmen, die dazu die zahlreichen PC's in Labor und Büro nach Büroschluss einsetzten. Andere Anwendungen, wie die klassischen Simulationen, eigen sich dafür nicht. In diesen wird der Untersuchungsgegenstand in kleine Flächen- oder Volumenteile unterteilt, für diese physikalische Gleichungen gelöst und dann die Daten mit den Nachbarzellen ausgetauscht. Dieser Vorgang wird dann sehr oft wiederholt. So funktionieren Modelle der Sonne, explodierender Sterne, von Flugzeugen (Aerodynamik) und Autos (Crashtest, Aerodynamik) aber auch des Wetters und der Klimavorhersage. Der Unterschied zu obigen Berechnungen ist, dass jede Einzelberechnung relativ schnell abgeschlossen ist, die Kommunikation also viel mehr Zeit beansprucht.

Eine zweifelhafte Nutzung dieses "Cloud Computings " ist seit September 2012 die "Dienstleistung" einen beliebigen 56-Bit Schlüssel für ein WLAN-Netz durch Angabe des Hash-wertes innerhalb von 24 Stunden gegen Bezahlung berechnen zu lassen.

Seymour Cray, der schon 1996 bei einem Autounfall starb, aber noch mitbekam, wie die Vektorrechner von den Clustern abgelöst wurden war Zeit seines Lebens Gegner dieses Ansatzes. Er sagte einmal: "Was nehmen sie zum Pflügen eines Ackers: zwei starke Ochsen oder 1024 Hühner?". Unbestritten ist die Programmierung weniger Vektorprozessoren mit einem gemeinsamen Hauptspeicher einfacher ist, als viele Prozessoren auszulasten, zu synchronisieren und vor allem ihre Spitzenleistung auch nutzen. Aber zumindest in der Form wie sie damals üblich war, war die Technologie nicht mehr in der Leistung steuerbar. Je nach Sichtweise könnte man auch Xeon Phi oder Tesla Grafikkarten als Vektorprozessoren ansehen - nur arbeitet nicht eine Recheneinheit mit 64 Registern, sondern viele Recheneinheiten mit nur wenigen Registern, aber parallel. Anders als vollwertige Prozessoren sind die Shaderkerne aber keine vollwertigen Kerne, sondern mehr mit einer arithmetisch-logischen Einheit (ALU) vergleichbar.

Vektorinstruktionen haben inzwischen in die PC-Prozessoren Einzug gehalten. Hier heißt es SIMD. Die neueste Implementierung ist AVX von Intel/AMD.

16.12.2012: der überflüssige Nobelpreis

wurde gestern verlieren. Wie man sich denken kann ist es der Wirtschafts-Nobelpreis. Eigentlich ist schon die Bezeichnung eine Unverschämtheit, denn der Preis wurde nicht von Alfred Nobel, sondern der schwedischen Reichsbank ausgeschrieben. Wenn er aber nicht als Wirtschafts-Nobelpreis" tituliert würde und zeitnah zu den Nobelpreisen für Chemie, Physik Medizin und Frieden verliehen würde.

Wer meinen Blog liest weiß, dass ich recht wenig von den Wirtschaftswissenschaften halte. Schon die Bezeichnung "Wissenschaften" ist eine Unverschämtheit. Aber das gilt meiner Meinung nach auch für andere Disziplinen die sich "XXXX-wissenschaften" taufen wie Erziehungswissenschaften oder Sozialwissenschaften. Wissenschaften impliziert in meinen Augen, dass es Gesetze gibt, die man verifizieren kann oder noch besser die man nutzen für eine Anwendung kann. Das ist bei chemischen Gesetzen so, die genutzt werden um Wirkstoffe gegen Krankheiten zu berechnen aber auch so etwas komplexes wie die Allgemeine Relativitätstheorie, die heute jeder nutzt wenn er ein GPS Navi sein Eigen nennt. Ohne sie würds nicht funktionieren. Weder das Sozialverhalten von Menschen, noch das Verhalten von Kindern und erst recht nicht welche Erziehung die beste ist, ist als Gesetz feststehend und vorhersagbar.

So ist es auch bei der Wirtschaft. Nichts dass ich etwas gegen eine berechenbare Wirtschaft hätte. Wenn ich an Immobilienblasen, Bankenkriege und dem Auf und Ab von Börsen denke, wäre sogar nichts besser als dieses. Aber obwohl nun seit über 40 Jahren es viele Wirtschaftsnobelpreise verliehen wurden, kann ich nichts davon erkennen. Im Gegenteil. Seit Computerprogramme, die ja dann wohl den Erkenntnissen der Wirtschaftswissenschaft gehorchen, an der Börde kaufen und Verkaufen ist es so richtig schlimm geworden. Auch das die meisten Preisträger aus den USA stammen spricht definitiv gegen diesen Preis. Denn die Ursachen für die ganzen Finanzkrisen kommt von diesem Land. Dort leben 47 Millionen Menschen unter der Armutsgrenze, werden Sozialversicherung als "kommunistisch" angesehen und  es gilt das Gesetz des Stärkeren, was sich dort "amerikanischer Traum" nennt. Wenn es also so viele Preisträger aus diesem Land gibt, dann müsste es dort den Menschen am besten gehen. Das genaue Gegenteil ist aber der Fall.

Es wäre was anderes wenn es ein Preis wie der Friedensnobelpreis wäre, also nicht einer für eine wissenschaftliche Leistung, sondern einer für einen Verdienst für Menschen oder die Menschheit. Also wenn jemand Gutes tut. Mit seinem Vermögen wohltätig umgeht, viele Spenden eintreibt, entweder im Kleinen doer indem er einen Promibonus ausnutzt, dann wäre das sicher ein gutes Gegenstück zum Friedensnobelpreis, bei dem es oft um Organisationen geht oder Menschenrechte. Es gibt genügend Leute auf der Welt die sich nicht gleich wegen Kritik an der Regierung ausweisen oder einsperren lassen, aber versuchen einfach mit Geld gutes zu tun. Aber das will die schwedische Reichsbank nicht. Unverständlich auch, dass die Preisträger von der schwedischen Akademie der Wissenschaften ernannt werden, was sie den anderen Nobelpreisträgern gleichstellt. Genauso wird der Preis zusammen mit den anderen Nobelpreisen in derselben Veranstaltung verliehen. Also wenn man noch einen weiteren Preis verleihen will, dann wäre sohl einer für Biologie wichtiger. das ist zum einen eine richtige Wissenschaft. Zum anderen hat sich das Fach vom Blumenzählen und sezieren von Tieren gemausert zu einem Fach das mehr Nähe zur Chemie hat als zur klassischen Biologie. Genetik, Ökologie, Klimakunde sind heute Bestandteile der Biologie und sie beeinflusst unser Leben mehr als die Wirtschaftswissenschaften.

was hätte wohl Alfred Nobel zum Missbrauch seines Namens gesagt: Er hat einem in einem Brief geschrieben „Ich habe keine Wirtschafts-Ausbildung und hasse sie von Herzen". Der Mann hat ss schon damals begriffen.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99