Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 177 : 21.7.2010-

Mittwoch den 21.7.2010: Wohin geht die Reise bei den Supercomputern?

Obwohl der Begriff "Supercomputer" nicht genau definiert ist, versteht man darunter meist einen Rechner, der erheblich schneller ist als der Großteil der auf dem Markt verfügbaren Geräte und zumindest früher auch nur auf die Verarbeitung nummerischer Aufgaben, also wissenschaftliche Berechnungen / Simulationen ausgelegt ist, nicht jedoch für Dinge wie sie in Betrieben öfters anfallen wie die Verwaltung von Datenbanken, das Entgegennehmen der Eingaben von vielen Mitarbeitern an Terminals etc.

Die ersten schuf Seymour Cray bei der Firma CDC Ende der sechziger Jahre. Später machte er sich selbstständig und gründete die Firma Cray Research. Unter diesem Namen erschienen dann auch über ein Jahrzehnt lang die schnellsten Rechner der Welt. Crays Rechner waren Vektorrechner. Dahinter steckt eine bestimmte Architektur: Jeder Befehl benötigt folgende Schritte:

Bei einer Rechenoperation fanden immer diese vier Schritte statt. Crays Architektur sah nun neben einfachen Rechenoperationen auch solche vor, die auf allen 64 Registern durchgeführt wurden. Dabei wurde pro Takt ein weiteres Register bearbeitet. Von den vier Schritten blieb so nur noch die Ausführung übrig und die Geschwindigkeit stieg um das dreifache bei einer Cay 1. Zwanzig Jahre später wurde dasselbe Prinzip unter der Bezeichnung SIMD (Single Instruction, Multiple Data) auch bei Intel/AMD eingeführt.

Die Vektorrechner waren lange Zeit dominierend. Ab Anfang der neunziger Jahre kam aber die Konkurrenz in Form von Rechnern mit Tausenden von PC Prozessoren auf. Der grundlegende Nachteil des Vektorprozessors ist, dass es keine Architektur von der Stange ist. Die Investitionskosten in jede neue Chipgeneration steigen aber an, weil die Strukturen immer kleiner werden. Bei nur wenigen verkauften Stück wurden so die speziellen Architekturen von Vektorrechnern immer teurer vergleichen mit den Rechenleistungen die sie boten. Der letzet Vektorrechner ist der Earth Simulator, doch auch er ist ein Einzelstück und ging schon vor vielen Jahren in Betrieb.

Rechner auf Basis von PC Prozessoren sind die heute am verbreitetesten Systeme. Auch hier gab es den Trend weg von speziellen Lösungen mit eigenen Bussen für die Verbindung oder gemeinsamen Speichern hin zu fast normalen Servern - jede Platine ein Prozessor mit eigenem Speicher, verbunden über schnelles Ethernet. Der Hauptnachteil ist dass heutige PC Prozessoren noch sehr viel Strom verbrauchen und mit den Kühlern auch viel Platz. Bei der Steigerung der Rechenleistung darf man auch nicht vergessen, dass die ersten Rechner von Cray ein Gerät waren, in etwa so große wie ein Schrank und heute Supercomputer eine ganze Halle belegen. Der Earth Simulator sogar ein zweigeschossiges eigens gebautes Haus (Eine Etage Rechner, eine Etage Klimaanlage) mit eigenem Kraftwerk.

Ein Ausweg könnten Embedded Prozessoren sein und Grafikhardware. Embedded Prozessoren wie sie in Handys, Satelliten Receivern etc. zu finden sind weitaus niedriger getaktet als PC Prozessoren, so benötigt man noch viel mehr davon. Aber im Vergleich MIPS/Watt sind sie erheblich besser. Schlussendlich kommt es aber auf die Summe an, d.h. den Gesamtstromverbrauch mit Speicher und Klimaanlage und natürlich auch die Packungsdichte die erreicht wird. Immerhin: Seit Jahren halten sich einige Systeme von IBM auf Basis von Embedded Varianten der PowerPC Prozessoren in den Spitzenplätzen der Top 500.

Der zweite Trend sind zweckentfremdende GPU, die Grafikprozessoren. Schon vor einigen Jahren gab es Projekte Playstations zu vernetzen und daraus einen Supercomputer zu kreieren. dann brachte IBM den Cell Prozessor nicht nur in einer Variante für die Playstation heraus sondern auch für Supercomputer. Er blieb aber IBM-typisch sehr teuer. Heute rüsten AMD und NVidea ihre GPU nach, dass sie auch doppelt genaue Berechnungen beherrschen, die bei wissenschaftlichen Fragestellungen ein Muss sind. Eine einzelne High-end Grafikkarte hat einige Hundert bis fast Tausend Recheneinheiten. Selbst bei niedrigerem Takt und langsamerer Ausführung eines Befehls ist sie bei optimaler Programmierung rund zehnmal schneller als die schnellste handelsübliche CPU. Das Problem ist die "optimale" Programmierung, denn die Performance bricht ein wenn diese nicht vorliegt und bestimmte Dinge kann eine GPU nur langsam berechnen. Auch der Befehlssatz ist nicht mit dem eines "normalen" Prozessor zu vergleichen.

Ich sehe noch eine zweite Möglichkeit die es geben könnte. Die Benutzung freier Kapazität bei normalen PCs Heute hat das Groß der neu gekauften PCs einen Mehrkernprozessor der meistens Däumchen dreht. Bald werden drei, fünf oder sieben Prozessoren Däumchen drehen. Diese Rechenleistung kann man nutzen. Das Problem ist nur die langsame Verbindung untereinander (über Internet) und die asynchrone Kommunikation (abhängig vom Nutzungsverhalten des Users). Heutige Projekte haben auch noch den Nachteil, dass es nur wenige Dinge gibt die man auf einem PC machen kann ohne gleich eine größere Anwendung zu installieren. Das zweite Problem ist eben die angesprochene Kommunikation. Bei einem Klimamodell wie auch anderen Simulationen ist es so, dass zwar man das Modell in kleine Zellen zerlegen kann, aber diese Zellen eben nach einem Berechnungszyklus Daten austauschen müssen - beim Wetter oder Klima wandern Wolken weiter, Der Luftdruck hängt vom Nachbarfeld ab ebenso die Luftfeuchtigkeit und Temperatur etc.. Wenn ein Rechner dann mehrere Tage offline ist geht an dieser Stelle nichts. auffangen könnte man dies durch Redundanzen (mehrere Rechner bekommen dasselbe Packet) und einen großen Speicher um die Daten zu sammeln bis das Modell fertig ist.

Es gibt allerdings einige Problemfälle bei denen das dezentrale Rechnen möglich ist. In der Pharmaforschung werden z.B. für einen Wirkstoff funktionelle gruppen verändert und dann simuliert ob er in die Reaktionszentren bekannter Moleküle passt. Jede Kombination Wirkstoff/Rezeptor kann separat berechnet werden. Es gibt schon Pharmahersteller bei denen nach Büroschluss auf den Arbeitsplatzrechnern derartige Simulationen laufen - bei einigen Hundert Arbeitsplatz PC ersetzt das schon mal einen Großrechner. Idealerweise wäre es wenn die Software vorinstalliert wäre und von PC Herstellern ausgeliefert werden würde. Wenn man das dem Benutzer gut verkaufen würde "Ihr Rechner trägt dazu bei ein neues Mittel gegen Darmkrebs zu finden" oder "Sie tragen dazu bei die Auswirkungen der Klimaerwärmung zu bestimmen". Eventuell könnte man sogar Wahlmöglichkeiten vorsehen. Voraussetzung wäre, dass der Benutzer keine Nachteile hätte, also die Software wie der Leerlaufprozess ganz niedrige Priorität hat und auch die Speicherplatzanforderungen gering sind (letzteres wäre wohl eher das Problem).

Auf der anderen Seite sind die Möglichkeiten enorm: Der derzeit schnellste Rechner setzt 224.192 Opteron Prozessoren ein. Es werden rund 200 Millionen PC pro Jahr verkauft. Wenn nur die Hälfte mit der Software ausgerüstet wird und jeder Rechner 1/10 der Rechenleistung eines Opteron liefert (bedingt durch die kurzzeitige Nutzung und andere Software, so ist die Leistung immer noch 50 mal höher als beim größten Rechner weltweit (oder 2000 mal schneller als der letzte Computer auf der Top 500 Liste).

Donnerstag 22.7.2010: Linux , Mac und Windows - der Glaubenskrieg

Ich habe mit Interesse festgestellt, wie sich bei meinem Blog über den Rechner meines Bruders diese allzu bekannte Linux / Windows Diskussion entspannt. So ziemlich alles was ich aus anderen Diskussionen kenne wurde vorgebracht:

Okay, Zeit mich auch mal einzubringen. Wobei ich auch noch den Mac mit einbringen will. Als erstes: Habe ich was von Opensource als Endanwender? Meiner Meinung nach nicht. Ich bin ja Informatiker. In der ganzen Zeit in der ich Software benutze, kann ich mich an zwei Programme erinnern, bei denen ich den Quelltext neu kompiliert habe. Ein Programm für die Reparatur von DivX Dateien und ein Streaming Client für Internet Radio. In beiden Fällen ging es nicht um die Kernroutinen, sondern die Oberfläche. Ich bezweifele, dass es viele Leute gibt, die sich wirklich mit dem Sourcecode von Linux beschäftigen. Auch nur um Fehler zu suchen, wie immer herausgestellt wird.

Auch sonst wird man wenn man sich umschaut bei Software Beispiele für Opensource Projekte finden, die erfolgreich sind und kommerzielle Software die erfolgreich ist. Eine breite Auswahl gibt es z.B. bei Browsern. Ich habe hier vom Opensource Projekt Firefox zu Google Chrome gewechselt - er ist schneller, leichter durch Extensions erweiterbar. Daher kann man trefflich streiten. Je nachdem wo man seinen Fokus legt, wird man immer das Beispiel finden, das einem in den Kram passt.

Zur Sicherheit: Es gibt unabhängige Untersuchungen, die zeigen dass Linux nicht prinzipiell sicherer ist als Windows. Zumindest, wenn man die letzten Jahre betrachtet (das es früher anders war steht außer Frage) und wer auf der ct' Sicherheitsseite schaut, findet dort auch etliche beseitigte Bugs bei Linux, Firefox & Co. Der Anwender kann dies durch die Bedrohung wahrnehmen und da es praktisch keine Viren für Linux und Mac-OS gibt schneiden die besser ab. (Mac-OS ist übrigens kommerziell...). Aber das ist, wie wenn man die Sicherheit eines Golfs und eines Porsche 911 anhand der Unfallzahlen festmacht - da weniger Leute Porsche fahren scheint er dadurch sicherer zu sein.

Treiber: Das ist natürlich keine Sache die man Linux vorwerfen kann. Die Industrie ist einfach faul geworden. Warum Treiber für drei Systeme (Linux, Windows, Mac) entwickeln, wenn für 90% aller Systeme auch Windows reicht? Das es genügend Leute gibt, die zumindest die Situation von sich aus verbessern wollen ist löblich. Aber es ist das übliche Henne-Ei Problem. Von diesem ist wie angesprochen natürlich auch der Mac betroffen. Wobei da hier ein Computer mit Betriebssystem verkauft wird, es zumindest für die intern verbaute Hardware Treiber gibt.

Das Henne-Ei Problem gibt es auch bei den Anwendungen. Auch wenn es dem einen oder anderen nicht gefällt. Es gibt immer noch das Konzept der "Killeranwendung". Leute haben sich an eine Anwendung gewöhnt oder sind beruflich auf die Komptabilität mit dieser angewiesen und die darf nicht fehlen. Ein Ersatz muss daher dem Original ähneln - in Bedienung und Leistung. Die Killeranwendung Adobe Photoshop und Pagemaker rettete Apple dass Leben, als die Verkäufe in den frühen Neunzigern einbrachen. Immerhin die Grafiker und Layouter hielten zu der Firma. Es ist auch der Grund, warum ein Apple Mac mit einer Softwaregrundausstattung ausgeliefert wird, die man woanders hinzukaufen muss wie z.B. "Garage Band".

Auch hier ist es schwer über den Kamm zu scheren. Ich meine das Openoffice vergleichbar ist MS Office, was die Funktionalität, Stabilität etc. angeht. Es gibt natürlich in Bedienung Unterschiede und erst recht hinter den Kulissen (Programmierung). Aber für die meisten Anwendungen reicht es. Problematisch wird es wenn man aber nicht nur auf die Bedienung sondern auch den Datenaustausch wert legt oder es eben zig Markos gibt die nicht mehr laufen. Als ich von Kevin Glinka seine erste Korrektur eines Buches von mir zurückbekam, waren alle Schriftarten vertauscht und die Formatierungen verändert. Dabei arbeitete er auch mit Openoffice, nur eben unter Linux. Er hat es dann auch unter Windows installiert und da gab es keine Probleme - und es handelt sich hier um ein und dieselbe Software nur unterschiedlichen Systemen. Das zeigt das Opensource auch nicht immer besser ist als geschlossene Software.

Hinsichtlich Benutzerfreundlichkeit ist sicher Linux heute da wo Windows auch ist. Mac ist noch einen Tick eleganter. Die Firma hat auch noch pfiffige Ideen für die die Leute dann noch wirklich Geld hinlegen. Sie es bei MP3 Playern, Smartphones oder sogar beim Einführen neuer Geräteklassen wie dem ipad. Da dort die Programm zumindest zumeist nicht auf eine gewisse Oberfläche angewiesen sind gibt es sogar Vorteile für Leute wie mich die lieber den Windows 2000 Stil mögen - nüchtern und ergonomisch. Den konnte ich bei Windows XP noch einhalten. Bein Windows 7 sehen zu viele Programm damit beschissen aus, weil auch einiges nun nicht mehr sauber geht.

In der Summe - und deswegen halte ich die Diskussion für fruchtlos - kommt es auf die persönliche Situation an. Daher finde ich auch einige Allgemeinplätze in der Diskussion sehr befremdlich. Alle Windows Nutzer zu Raubkopieren abzustempeln z.B. Ich habe keine eigene Raumkopie auf meinem Rechner. Allerdings auch nur wenig bezahlte Software. Das Windows ist ein legales aus einer MSNAA Lizenz. Dazu kommen als gekaufte Programme noch Delphi, mein Steuerprogramm und einige (allerdings abgehangene und somit billige) Spiele. Alles andere ist Freeware: VLC, Servant Salamander 1.52, Virtual Dub, Google Chrome, Thunderbird etc...oder es gab es als Zugabe zu Hardware wie den Abby Finereader und Picture Publisher.

Das es für Linux keine Games gibt würde mir deswegen auch nichts ausmachen um einem anderen Allgemeinplatz entgegenzutreten. Die Diskussion kann man endlos führen. Aus dem einfachen Grund, weil es unterschiedliche Bedürfnisse gibt. Wenn ich mich in Linux auskennen würde, ich weiß das der Rechner nur für Office und Internet genutzt wird, dann spricht nichts dagegen jemanden Linux zu installieren. Es gibt auch Leute die sich bewusst für einen Mac entscheiden weil er bedienungsfreundlicher ist und sie sich nicht gut mit Windows auskennen. Für mich wäre beides nichts. Ich kenne mich in Windows aus und kann dann Probleme einkreisen. Was gerne bei der Diskussion vergessen wird: Es gibt bei fast jedem im Bekanntenkreis eben jemand, der sich mit Windows auskennt. Das System gibt es seit 1983 und seit 1992 hat es eine große Marktverbreitung. Die meisten Leute die ich kenne haben einige Jahre mit Windows gearbeitet und kennen sich darin aus. Sie können zumindest es sich einrichten, Programme installieren etc. Ich wüsste aber nicht, was ich machen müsste, wenn mein Bruder in Linux was verstellt, da was nicht funktioniert oder es ein anderes Problem gäbe. Linux und Mac scheiden auch aus wenn spezielle Programme benötigt werden, die es nur für Windows gibt. Bei meinem Bruder irgendwelche Programme zum Berechnen eines Energiepasses um ein Beispiel zu nennen. Bei mir ist es z.B. Delphi. Nicht nur weil ich in der Programmiersprache selbst programmiere, sondern auch der Unterricht in der DHBW mit Delphi erfolgt. Derzeit trudeln bei mir z.B. die Abgabearbeiten des zweiten Semesters ein, die ich beurteilen muss. Schwer zu machen wenn man sie nicht mal kompilieren kann.

Daher rate ich aus meiner Computererfahrung von mittlerweile 28 Jahren zu etwas mehr Toleranz. Wenn Linux für Dich das beste System ist okay. Aber für andere ist es vielleicht nicht die richtige Lösung.

Freitag 23.7.2010: Nachlese

Heute etwas später der Blog, da ich derzeit nicht nur die letzte Vorlesungsstunde für das zweite Semester halte, sondern auch noch die ganzen Programmentwürfe korrigieren muss. Fangen wir mit einer Nachlese an. Ich dachte mein Blog würde die Diskussion beleben, aber es ging ja wieder mit denselben Argumenten weiter. Nur einer scheint begriffen zu haben, dass es nicht um das beste System per se geht, sondern jeder nur eigene Erfahrungen wiedergibt.

So in etwa verlief vor 25 Jahren die Diskussion zwischen Amiga und Atari ST oder C-64 und CPC 464. Aber genauso wie damals führt es zu nichts. Vielleicht nur ein paar Bemerkungen: Auch wenn man nicht viel von Microsoft hält, sollte man doch anerkennen, dass die Firma ihre Hausaufgaben erkannt und vieles verbessert hat, was früher schlimm war. Und nur der Anspruch das bessere System zu sein reicht nicht. Es muss auch sich durchsetzen. Wie heißt es so schön - "Unix (Linux) ist das bessere Betriebssystem und die Zukunft - und das schon seit 25 Jahren".

Ich bezweifele auch dass Opensource an sich besser ist als ClosedSource. Als erstes mal wird bei MS und anderen Firmen inzwischen ein ziemlicher Aufwand betrieben um den Code durchzusehen und zu testen. Bei Windows 7 soll nur noch ein Drittel der Mannschaft programmiert haben. Die anderen haben getestet oder anderes gemacht. Als zweites ist es nun ja nicht so, das Firefox und andere Programme von jedem Gelegenheitsprogrammier mal kurz durchgeschaut werden können. Das sind selbst schon Brocken mit Millionen von Zeilen. Ich weiß noch als Openoffice aus StarOffice entstand, sich ein paar Jahre lang kaum was tat weil sich zu wenige beteiligen und auch heute ist die Weiterentwicklung eher langsam verglichen mit MS-Office. Auch Wikipedia zeigt recht gut das Viele Augen sehen mehr nicht wirklich klappt. Wer bei Wikipedia mal von den Allgemeinplätzen in Spezialartikel reinschaut (und damit hat man es auch zu tun wenn man bei Software ins Detail geht) merkt recht rasch wie dünn da die Kompetenz gesät ist und wie fehlerhaft oft die Wikipedia ist.

Vor allem bin ich vielleicht alterweise: Ich habe sicher vor 20-25 Jahren dieselben Diskussionen geführt (siehe oben). Doch heute geht es mir um was anderes. Es geht nicht um das bessere System - es geht um das für den Benutzer beste System. Und das ist eben ein riesiger Unterschied. Der Unterschied liegt darin dass man den konkreten Fall betrachten muss. Konkret heißt: Wenn es um Treiber geht, dann um die die der Benutzer braucht, nicht die allgemeine Situation. Wer mal in der ct' Tests von Linux und Notebooks liest der weiß, dass es hier von Marke zu Marke unterschiedlich aussieht. Das zweite ist welche Software eingesetzt wird und das Dritte und nicht zuletzt wichtigste ist die Vorerfahrung des Anwenders. Was nützt das tolle System wenn der potentielle Anwender sich darin nicht auskennt und das auch für jedes Programmpacket gilt? Und bei aller Kritik an Microsoft (egal ob man es MS oder M$ abkürzt): Ihre Produkte haben sich durchgesetzt und sind erfolgreich. Das obwohl man sie kaufen muss. Und Linux führt trotz kostenlosen Distributionen ein Nischendasein und das nicht erst seit heute. Ich habe erstmals 1995 von Linux gehört und meine erste Installation war 1997. In 13 Jahren ist der breite Durchbruch ausgeblieben. Wenn ich von Umstellungen höre, dann sind es meist geschlossene Umgebungen: Wenn die Stadtverwaltung von München umstellt, dann geht es um eine betreute Infrastruktur, bei der die Computer zentral gekauft werden, genauso wie die Peripheriegeräte. Es laufen darauf die Büroprogramme die benötigt werden, wahrscheinlich Office und eigene Verwaltungsanwendungen. Das ist ein Riesenunterschied zu dem Anwender der daheim ist und jede beliebige Anwendung installieren möchte, einfach mal eine USB Webcam kaufen will ohne nach Treibern zu suchen.

Ich bin jetzt weg von Firefox als Opensource zu Google Chrome (nein das ist kein Opensourceprojekt - entwickelt wird er nur von Google, nur ist eben der Quelltext offen. Das ist aber nicht die Definition eines Opensource Projektes sonst wäre ..NET von Windows auch eines). Er ist schneller und unkomplizierter. Extensions und Browser aktualisieren sich automatisch. Firefox wurde immer träger und ein stehendes Fenster riess den ganzen Browser mit. Firefox habe ich nur benutzt weil Operas Werbeblocker die vielen Popups nicht verhindert hat (Firefox konnte das auch nicht aber Noscript/Adblock zusammen als Extensions). Hätte Opera einen guten Werbeblocker gehabt ich wäre immer noch bei dem Browser.

Er startet schneller, die Seiten bauen sich schneller auf. Die Extensions sind ohne Wartfrist installiert, machen keine Meldungen wenn sie sich aktualisieren müssen und laufen in eigenen Prozessen - hängen nicht den Browser auf und starten nach ihm unabhängig von ihm. Mich hat als Chrome rauskam nur gestört, dass er das minimalistische IE Design hat - also ohne Menüleiste. Da man aber die Lesezeichen als wichtigsten Punkt jedoch in die Symbolleiste aufnehmen kann und durch Extension kann man das auch auf Downloads etc erweitern. Da inzwischen immer mehr Browser (u.a auch Firefox) dieses Minimallayout haben gewöhnt man sich dran, obwohl ich lieber ein Menü oben habe.

Also mein Tipp: Verchromen sie mal ihren Computer.

Sonntag 25.7.2010: OSC vs. SpaceX

Nachdem ich bei den Kommentaren zu meinem vorletzten Blog den Eindruck gewonnen habe, dass man meine Blogs überhaupt nicht liest, sondern nur die anderen Kommentare, wollte ich eigentlich mal einen Blindtext veröffentlichen. Aber mich erinnerte die nur von persönlichen Erfahrungen geprägten Kommentare (so wie es bei mir ist so muss die ganze Welt sein. Wilhelm II. lässt grüßen: Am Linux Wesen kann doch die Welt genesen) an etwas: Genauso wird die Diskussion um SpaceX geführt. Auch hier werden gerne mal falsche Vergleiche gemacht wie z.B. SpaceX mit LM / Boeing / Arianespace obwohl SpaceX ganz andere Märkte bedient als die anderen Firmen oder es werden mal Phantasiesummen erdacht, wie die von einem Kommentierer angegebenen angebliche 40 Mrd. $ für die Atlas V Entwicklung - der dreifache NASA Etat nur für eine Trägerrakete. Warum nicht 400 Milliarden oder 4000 Milliarden? Nachprüfen ist ja so arbeitsintensiv, wenn man doch Postings in Foren als primäre Informationsquelle nimmt)

Aber man kann SpaceX vergleichen und zwar mit OSC. Denn beide Firmen haben von der NASA Entwicklungsaufträge und Beförderungsaufträge erhalten.

Im Jahre 2006 schuf die NASA das COTS-Programm (Commercial Orbital Transportation Services – kommerzielle Transportdienste in die Erdumlaufbahn). Es rief die Industrie auf, Vorschläge für den Frachttransport zur ISS zu machen. In einer ersten Runde am 18.8.2006 bekamen zwei Unternehmen einen Entwicklungsauftrag: Kistler Rocketplane erhielt 207 Millionen Dollar und SpaceX 278 Millionen Dollar. Beide Firmen wurden dafür bezahlt, dass sie ein System entwickeln, dass später für den Transport eingesetzt werden könnte. Gipfeln sollte die Entwicklung mit Demonstrationsflügen. Eine Versorgung der ISS war mit dieser ersten Runde noch nicht vorgesehen.

Kistler-Rocketplane entstand erst als Antwort auf die Ausschreibung der NASA (diese wurde am 18.1.2006 veröffentlicht, Rocketplane-Kistler entstand durch Übernahme von Kistler durch Rocketplane im Februar 2006). Kistler hatte seit einigen Jahren eine wiederverwendbare Trägerrakete entwickelt und diese schon zu 75% fertiggestellt, war aber danach in Finanznöte geraten, nachdem es durch Rückzug von Investoren im Risikokapitalmarkt keine neuen Geldgeber aufgetrieben werden konnten. Die Entwicklung stand daher für Jahre. Kistler Rocketplane wurde der Kontrakt schon im Oktober 2007 wieder entzogen, da die Firma keine ausreichende Finanzierung nachweisen konnte. Bis dahin hatte die NASA 32,1 Millionen Dollar an Kistler gezahlt. Rocketplane war wohl an dem Kontrakt und dem Geld interessiert wollte (oder konnte) aber die Entwicklung nicht fortführen.

Das verbliebende Geld wurde dann in einer zweiten Runde erneut ausgeschüttet. Sieben Firmen reichten Vorschläge ein. Am 22.1.2008 bekam Orbital Sciences Corporation (OSC) den Zuschlag über 170 Millionen Dollar für die Entwicklung ihrer Taurus II Trägerrakete und des Cygnus Raumschiffes.

Ein viel umfangreicherer Vertrag wurde am 22.12.2008 abgeschlossen. Diesmal ging es um die Versorgung der ISS. Es ist nicht verwunderlich, dass die beiden Gewinner aus den ersten beiden Runden den Zuschlag bekamen: SpaceX wird zwölf Flüge mit der Dragon Kapsel und der Trägerrakete Falcon 9 durchführen und erhält dafür 1,6 Milliarden Dollar. OSC führt acht Flüge mit der Cygnus Kapsel auf der Taurus II Trägerrakete durch. Diese sind der NASA 1,9 Milliarden Dollar wert. Beide Anbieter sollen innerhalb von drei Jahren für diese Summe mindestens 20 Tonnen Fracht zur ISS bringen. Die Erweiterung eines Vertrags auf das Gesamtvolumen von 3,5 Milliarden Dollar ist möglich, wenn der Konkurrent seinen Verpflichtungen nicht nachkommt.

Das bedeutet, dass beide Unternehmen sowohl Geld von der NASA für die Entwicklung, wie auch für den Transport bekommen. Sie sind also direkte Konkurrenten. SpaceX ist eigentlich im Vorteil: Die Firma bekam 278 Millionen Dollar, OSC nur 170 Millionen Dollar. Weiterhin hat sie einen Zeitvorsprung von 17 Monaten durch die notwendige zweite Runde. Doch wie es so ist - die Firma konnte das nicht ausnutzen. Die Firma hat jetzt schon das erhaltene Geld für den Transport verbraten um die Falcon 9 Entwicklung abzuschließen und die erste COTS Mission sollte schon im September 2008 stattfinden. Derzeit plant SpaceX den Flug derzeit für November 2009, liegt also ganze 26 Monate hinter dem Zeitplan. Auch OSC liegt hinter dem Zeitplan hinterher - hier sollte die erste Mission im Dezember 2010 stattfeinden. Derzeit ist März bis Juni 2011 im Gespräch, also 3-6 Monate hinter dem Zeitplan. Neben den 170 Millionen der NASA investiert OSC 150 Millionen eigenes Geld in die Entwicklung - erheblich mehr als SpaceX.

Auch die Transportverträge sind vergleichbar. Beide Firmen werden für die Summe 20 t zur ISS bringen. Hier erhält OSC etwas mehr Geld (1,9 anstatt 1,6 Milliarden Dollar). Dafür führt SpaceX viel mehr Flüge durch. Jeder einzelne Flug ist bei SpaceX daher deutlich preiswerter. Das wird von manchen als Vorteil gesehen. Doch in der Wirklichkeit ist es ein Nachteil. Die Dragon hat eine viel kleinere Nutzlast und muss viel öfters starten um die 20 t Nutzlast zu befördern. Wenn sie nicht wiederverwendet werden kann - zumindest bei den bisher vier versuchten Bergungen von Stufen klappte das bei SpaceX ja nicht - dann wird die Firma ins Minus kommen.

Die folgende Tabelle informiert mal über die Fakten

  SpaceX OSC
Auftrag erhalten 18.8.2006 22.1.2008
geplanter erste COTS Missiojn September 2008 Dezember 2010
Tatsächlicher Startermin November 2010 März-Juni 2011
Zeitverzögerung 26 Monate 3-6 Monate
investiertes Eigenkapital 50 Millionen $ 150 Millionen $
investierte NASA Mittel 349 Millionen $ 170 Millionen $
Eigenkapitalanteil 12,5 % 46,9 %
Nutzlast der Trägerrakete anfangs 8,750 kg 5.300 kg
Erweiterbar auf 10.450 kg 7.000 kg
Geld für die COTS Flüge 1.600 Mill. $ 1.900 Mill. $
Flüge: 12 8
pro Start: 133 Mill $. 237,5 Mill $
Durchschnittliche Nutzlast pro Flug: 1.666 kg 2350 kg
Anteil an der Gesamtnutzlast für den Orbit: 19 % 44,3 %

Die letzte Ziffer ist übrigens nicht unbedeutend. Manchmal muss bei einer Rakete nachgebessert werden, was Nutzlast kostet. Oder das Raumschiff hat eine höhere Trockenmasse. Beide Firmen bauen daher auf verbesserte Versionen ihrer Träger, da die ersten nicht leistungsfähig genug sind um mit den angegebenen Flügen die Transportmenge zu erbringen. Nur wenn das nicht klappt, dann wird es eng, wenn die Nutzlast klein ist. Sinkt die Nutzlast der Trägerrakete um 5% so benötigt SpaceX zwei Flüge mehr um die Transportleistung zu erbringen, OSC aber nur einen zusätzlichen Flug. Dabei ist das Risiko bei SpaceX wegen der Wiederverwendung höher als wie bei OSC, die ja wie die anderen Transporter einen nur einmal einzusetzenden Frachter plant. Bei völlig neuen Konzepten es durchaus üblich dass diese nachgebessert werden müssen und schwerer werden. Apollo wurde schwerer und auch das Space Shuttle legt kräftig an Gewicht zu.

Also wenn ich vergleiche, so habe ich eine Firma die viel mehr NASA Kapital braucht um ihr Programm durchzuführen, dabei massiv hinter dem Zeitplan hinterherhinkt und die zwar eine nominell leistungsfähigere Rakete entwickelt, diese aber weniger Nutzlast transportiert und deren Konzept auf der Wiederverwendung aufbaut - das haben nicht mal die Russen mit ihren 4-8 Sojus/Progresststarts in einigen Jahrzehnten eingeführt. Eine zweite Firma setzt viel Eigenkapital ein, liegt nur wenige Monate im Zeitplan hinterher und baut auf bewährte Technik. Interessanterweise wird die erste als "privat" angesehen obwohl sie inzwischen weitgehend von NASA Mitteln lebt und für die zweite interessiert sich fast keiner.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99