Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 296: 22.9.2012 - 30.9.2012

22.9.2012: Der Vektorrechner

Seymour Cray's Beitrag zu den Computern war schon als ich mich in den Achtzigern dafür interessierte legendär. Cray war ursprünglich bei CDC (Control Data Corporation) für die Entwicklung der CD-6600 und 7600 verantwortlich, den schnellsten Computern ihrer Zeit und auch in ihrer Architektur richtungsweisend. Aber die Entwicklung war teuer und es kam zu Problemen als die CD 8600 sich als nicht entwerfbar entpuppte. Cray trennte sich von CDC einvernehmlich und gründete seine eigene Firma.

Schon das Erstling, die Cray 1 war 1976 ein ganz großer Wurf. Er war schneller als jeder andere Rechner seiner Zeit, und das nicht nur ein bisschen, sondern gleich viermal schneller. Er sah stylisch aus (und war auch noch als Sitzbank nutzbar). Der ganze Rechner war auf Geschwindigkeit ausgelegt. So kam die Form einer großen Garnrolle dadurch, dass die Verbindungslänge minimal sein sollte. Alle Kabel waren ein vielfaches von 30 cm lang. Kein Kabel dürfte länger als 72 Inch sein, da ein Signal  dann 12,5 ns brauchte - die Taktzeit des Rechners. Das führte auch zu dem kompakten Aufbau

Das entscheidende war aber das Cray das Prinzip des Vectorrechners einführte - Dazu ein Ausflug, wofür man damals wie heute, diese Rechner kaufte. Supercomputer wurden primär für Simulationen eingesetzt. Astronomen berechneten die Vorgänge im inneren einer Sonne, wie sich aus Planetensimalen Planeten formten. Meteorologen berechneten das Wetter oder Klima, Chemiker die Struktur von Molekülen und Ingenieure die optimale Form von Tragflächen oder was bei einem Crash mit dem Auto passiert.

In den meisten Fällen verläuft die Simulation so (hier am Beispiel einer Wettervorhersage): Man unterteilt die gesamte Erdoberfläche in Quadrate (sagen wir mal von 100 x 100 km Kantenlänge), und die Luft darüber in Schichten (sagen wir mal eine pro 1 km Höhe, insgesamt 16). Nun hat man eine Zelle. Für diese berechnet man ausgehend von Ausgangswerten die Temperatur, Luftdruck, Windgeschwindigkeit, Luftfeuchtigkeit etc. Das macht man für jede der in diesem Beispiel 750.000 Zellen. Dann werden Daten ausgetauscht weil Windströmungen und Temperaturunterschiede ja zum Luftaustausch führen und das ganze geht dann weiter, wobei jeder Schritt für ein Zeitintervall steht.

Kurzum: 750.000-mal müssen ein und dieselben Berechnungen durchgeführt werden. Daher benötigt man auch so viel Leistung (bei der Wettervorhersage ist man von den Maschenweiten von 100 km z.B. heute mit mehr Leistung bei einigen Kilometern Maschenweite angekommen, wodurch die Vorhersage genauer und lokal überhaupt erst möglich ist. Bei 100 km geht selbst der Bodensee als Einflussfaktor weitgehend unter). Das Prinzip findet sich bei vielen Simulationen. Sterne werden in kleine Kuben unterteilt. Das Auto in kleine Dreiecke, bei denen die einwirkenden Kräfte berechnet werden etc. Alternativ kann man viele Körper unabhängig berechnen, wie bei Simulationen des Planetensystems oder Molekülsimulationen. Auch dann sind aber die Gleichungen für jeden Körper identisch.

Der Vektorrrechner ist  un dafür optimiert. Hinter der Architektur liegt die Erkenntnis, wie langsam normale Mikroprozessoren Zahlen verarbeiten. Das geschieht so für eine Addition:

Das sind vier Maschinenbefehle für eine einzige Operation. Wenn nun praktisch das ganze 750.000 mal gemacht werden muss wäre es viel einfacher, wenn man es effizienter machen könnte. Weiterhin beschäftigt es unterschiedliche Einheiten in einem Prozessor: Die Ein/Ausgabeeinheit und die Recheneinheit.

Die Cray 1 hatte nun acht Vektorregister. Jedes enthielt einen Vektor, also ein Feld von Zahlen, im Falle der Cray 1 waren es 64 Zahlen, jede 64 Bit breit. Das Prinzip war nun das einer Pipeline: Eine Einheit füllte die die Vektorregister mit Daten, was auch effizienter geht, wenn ein Block aus dem Speicher gelesen werden kann, anstatt jede Speicherzelle einzeln abzufragen und dann wurde je ein Wert aus dem Vektorregister nach einander zur Recheneinheit geführt. und die Rechnung durchgeführt. Das Vorgängermodell von Cray, die CDC 7600, brauchte 9 Takte für eine Rechnung, die Cray 1 nur 9 Takte für die erste und danach einen Takt für jede weitere. Als Folge war die Cray 1 achtmal so schnell wie eine CDC 7600, obgleich der Taktzyklus nur verdoppelt wurde auf 80 MHz. Cray führte auch die Pipeline ein, d.h. während die Recheneinheit rechnete konnte die Speichereinheit schon Werte in die Register laden. Da jeder Speicherzugriff mehrere Takte (bis zu 4 dauerte) konnte das Anstoßen jedes Speicherzugriffs bei jedem Takt auch die Performance erhöhen. Damit der Speicher überhaupt nachkam hatte er den 1 MWort großen Speicher in 16 Bänke aufgeteilt, die nacheinander angesprochen wurden, den das RAM war schon damals langsamer als die Zykluszeit des Rechners.

Zum Erfolg wurde die Cray 1 aber weil sie auch skalare Operationen schnell ausführte. Die Instruktionen waren sehr einfach aufgebaut, der Computer für damalige Verhältnisse sehr zuverlässig (eine CDC 7600 beim NCAR fiel mindestens einmal, oft 4-5-mal pro Tag aus, eine Cray 1 lief mehrere Tage durch). Die Spitzenperformance war davon abhängig wie gut die Programm vektorisierbar waren. werte von 80 - 136 MFLOPS und 160-240 MIPS werden genannt.

Cray arbeitete auch bei seinen folgenden Rechnern an den Konzept der Vektorrechner, doch nach einem Jahrzehnt wurden die Rechner populärer die heute dominieren: massiv parallele Rechner aus vielen handelsüblichen Mikroprozessoren anstatt eigens hergestellten Chips. Je höher integriert die Mikroprozessoren wurden, desto leistungsfähiger wurden sie und desto kleiner der Unterschied zu speziellen Vektorprozessoren die nur in kleinen Stückzahlen produziert wurden. Nur Japan hielt an diesem Konzept noch lange Zeit fest und brachte 2002 den Earth Simulator heraus, der bis 2004 der schnellste Rechner der Welt war. Er war der letzte mit Vektorprozessoren. Er erreichte mit 5120 Vektorprozessoren 35 Teraflops..

Die Technologie ist inzwischen längst in die Mikroprozessoren eingeflossen, Ohne Pipeline wären die Prozessoren nur so schnell wie der Speicher, würden also etwa auf 486er Niveau stehen bleiben. Und auch Vektoroperationen gibt es heute. Bei Mikroprozessoren heisst dasselbe Prinzip SIMD (Single Instruction, Multiple Data). Anstatt 64 Registern setzen aber Mikroprozessoren meist wenige Register ein, die dafür sehr lang sind. (bei AVX, der neuesten Entwicklung von AMD und Intel z.B. 256 Bit, wodurch dann vier Zahlen a 64 Bit gleichzeitig bearbeitbar sind). Signalverarbeitungsprozessoren nutzen SIMD wesentlich stärker als Mikroprozessoren, weil ihre Aufgaben auch sehr gut vektorisierbar sind.

In gewisser Weise sind auch die CPU's von Grafikprozessoren Vektoreinheiten. Diese GPU haben sehr einfache Kerne, die anders als Mehrkernprozessoren nicht unabhängig arbeiten können und meist auch nur die Grundrechenarten beherrschen, aber es sind Hunderte. Man könnte sie daher durchaus mit Vektorprozessoren vergleichen - jede Einheit steht eben dann für ein Vektorregister. Von der reinen Rechenleistung hängen GPU's seit mindestens 10 Jahren die CPU's deutlich ab. Was ihren Einsatz limitierte war dass sie schwer zu programmieren waren, die Programme nicht sehr lang waren und die Ausrichtung auf Spiele die Genauigkeit auf 32 Bit beschränkte (das stört beim Spiel nicht, denn 32 Bit sind immer noch ein vielfaches der Monitorauflösung). Seit ein paar Jahren versuchen NVidea und ATI mit speziellen GPU für Supercomputer die diese Nachteile nicht haben in den Supercomputermarkt einzubrechen und immer mehr Systeme mit gemischter CPU/GPU Bestückung gibt es auch. in der Top 500 Liste. Bestplatziertes ist der Jaguar mit einer Mischbestückung aus Opteron / Kepler GPU's. Die Mischbestückung wird bleiben, aber ich denke die GPU's werden bald den Löwenanteil stellen. Eine Alternative ist es wie im Intel Xenon Phi den Prozessor aus vollwertigen, aber einfachen Kernen aufzubauen. Intel wollte mal einen GPU ähnlichen Ansatz, hat den aber verworfen und nimmt nun den P54C Kern, das ist für nicht eingeweihte die Pentium Architektur - nicht gerade ein "einfacher" Chip, aber vergleichen mit den heutigen Prozessoren doch recht überschaubar mit 3,1 Millionen Transistoren - heute sind wir jenseits der 1 Milliardengrenze.

24.9.2012: Wartung von Satelliten

In der neuesten ct' habe ich einen Bericht über die Robotik im Weltraum gelesen. Da ging es um unterschiedlichste Konzepte, wie z.B. der Austausch von Elektronik oder das Bugsieren in einen "Graveyard-Orbit". Vieles war noch sehr in die Zukunft projiziert, so die Idee einen Satelliten aus 35 cm großen Elementen aufzubauen die man im Orbit austauschen kann.

Ich will mal in dem Artikel beleuchten was die Lebensdauer eines Satelliten limitiert und was man tun kann um sie zu verlängern.

Fangen wir mal an mit dem was endlich ist:

Die Ressource Treibstoff.

Treibstoff wird für mehrere Zwecke benötigt

Geplante Kurskorrekturen gibt es vor allem bei geostationären Satelliten. Bedingt durch das ungleichförmige Gravitationsfeld bewegt sich ein Satellit in Ost-West Richtung und bedingt durch Störungen durch die Sonne in Nord-Südrichtung. Sie benötigen relativ viel Treibstoff dafür. Bei sehr niedrigen Umlaufbahnen kann es notwendig sein, die Umlaufbahn regelmäßig anzuheben. Doch solche Satelliten gibt es heute kaum noch mehr. Prominentestes Beispiel für einen erdnahen "Satelliten" der regelmäßig angehoben werden muss ist die ISS. Doch die meisten Satelliten werden in einen sonnnensynchronen Orbit gestartet und oberhalb von 600 km Höhe ist der über 20 Jahre stabil, also die Lebensdauer eines Satelliten.

Ungeplante Kurskorrekturen gibt es um Weltraumschrott auszuweichen. Davon sind nun eher die erdnahen Bahnen betroffen. Die ISS muss mehrmals pro Jahr Weltraumschrott ausweichen.

Jeder Satellit muss aber seine räumliche Ausrichtung ändern. Auch hier entweder absichtlich um z.B. einen Erdbeobachtungssatelliten schräg schauen zu lassen, oder auch hier Störungen durch das Gravitationsfeld (Gravitationsfeldgradient) zu kompensieren. Die meisten Satelliten machen das mit Reaktionsschwungräderrn. Doch diese müssen ab und an entsättigt werden. Dafür braucht man Treibstoff, verglichen mit Bahnkorrekturen ist es jedoch wenig. Also Nicht-GTO Satelliten könnten mit relativ überschaubaren Treibstoffvorräten ziemlich lange in einem sonnensynchronen Orbit betrieben werden.

Ressource Nummer 2: Die Energie

Die stammt heute vor allem aus Solarzellen. Solarzellen verlieren an Leistung. Im Weltall durch UV- und Partikelstrahlung etwas mehr als auf der Erde, doch man kann relativ einfach Vorsorge betrieben: einfach den Satelliten mit mehr Leistung ausrüsten als er braucht. Je nach Bauweise (gewähltes Halbleitermaterial / Kombination mehrerer Materialien) beträgt nach 15 Betriebsjahren heute die Leistung noch 80-90% des Ausgangswerts. Das bedeutet auch: dies ist nicht kritisch, um einen Satelliten Jahrzehnte lang zu betreiben. 20 bis 30% Mehrleistung sind kein Problem. Das macht in der Gewichtsbilanz nicht viel aus.

Schwieriger ist es mit Batterien. Auch wenn wir davon ausgehen können, dass Batterien für Satelliten etwas höhere Qualitätsstandards erfüllen müssen und pfleglicher behandelt werden, haben sie doch eine begrenzte Lebensdauer. Wie lange sie halten hängt primär vom Orbit ab. Sonnensynchrone Orbits haben den Vorteil, dass die Solarzellen dauernd bescheinen werden, außer zwei Perioden im Jahr. Dasselbe gilt auch für Satelliten im geostationären Orbit. Auch hier taucht der Satellit nur zweimal im Jahr in den Erdschatten ein. Die Arschkarte haben Satelliten gezogen, die in niedrigen Umlaufbahnen ihre Kreise ziehen. Das sind meistens astronomische Observatorien, da sie keine besondere Ausrichtung zur Erde brauchen wie Hubble. Da ist eine niedrige Erdumlaufbahn mit niedriger Bahnneigung die Bahn mit der höchsten Nutzlast. Oder die ISS, bei der die Transportleistung der Raketen maximal sein soll. Auf diesen Bahnen ist der Satellit 14-15mal pro Tag im Schatten der Erde. Jedesmal werden die Batterien entladen und wieder aufgeladen. Es ist klar, dass dies nicht ewig so gutgeht. Die Batterien der ISS sind ausgelegt für 5 Jahre Betrieb, dass sind immerhin rund 27.000 Lade/Entladezyklen. Erreicht wird dies, indem sie niemals vollständig ge- oder entladen werden sondern nur ein Drittel der Anfangskapazität genutzt wird. Dies ist auch die wichtigste Vorgehensweise um sie zu schonen. Trotzdem sind Batterien auf erdnahen Umlaufbahnen das Hauptproblem für die Lebensdauer. Da Batterien nicht viel Strom speichern, noch dazu nur zu einem Drittel der Kapazität genutzt werden ist es klar, dass zusätzliche Batterien ins Gewicht gehen. Doch auch diese altern wenn sie nicht oder nur wenig genutzt werden, weil es langsam zu chemischen Reaktionen kommt. Der MGS ging verloren, weil ein falsches Kommando die Solarpaneele wegdrehte, es gab zwar Fauil-Safe Routinen für diesen fall, doch die 10 Jahre alten schwachen Batterien waren schneller entladen als diese Routinen MGS wieder neu ausrichten konnten. Bei den letzten drei verlorenenen Marslandern war die Batterie am Ausfall mit beteilligt.

Elektronik

Früher war Elektronik der Hauptpunkt der die Lebensdauer von Satelliten limitierte. Hier gab es vor allem in den siebziger und achtziger Jahren deutliche Durchbrüche. War man froh in den sechziger Jahren, dass ein Satellit 1-2 Jahre arbeitete, so waren es in den Siebzigern schon 4-5 Jahre und heute liegt die Lebensdauer von neuen geostationären Satelliten 12-15 Jahren. Bei den Raumfahrtagenzturn ist das übrigens noch nicht angekommen. Sie setzen die Missionsdauern von neuen Mars- und Venusmissionen mit 3 Jahren an und bei Erdsatelliten reichen ihnen 5 Jahre. Natürlich kann Elektronik immer noch ausfallen. Die Wahrscheinlichkeit ist durch weniger Elemente zwar gesunken, aber es kann vorkommen. Allerdings ist es auch möglich leicht dies abzufangen indem man sie redundant auslegt. Platinen wiegen nicht viel und Schaltungen können relativ einfach überprüfen ob sie korrekt funktionieren. Speicher (egal ob als Massen- oder Arbeitsspeicher) kann überprüft werden und wenn nötig Blöcke als defekt markiert werden.

Gefährlicher als normale Alterungsprozesse sind Sonnenstürme. Die geladenen Teilchen können in Leitungen Spannungen induzieren, deren Auswirkung wie statische Elektrizität ist. Dadurch fallen immer wieder Satelliten aus. Nimmt man die Reservemodule aus dem Betrieb, leitet die Spannung ab, so müsste das beherrschbar sein. Den kompletten Satelliten abzuschalten kommt meistens nicht in Frage.

Mechanik

Das Hauptproblem ist heute die Mechanik. Bewegte Teile haben immer Reibung, können verschleißen. Das wichtigste mechanische Teil sind Reaktionsschwungräder oder CMG. (Control Momentum Gyros). Sie rotieren noch dazu mit hohen Geschwindigkeiten. Reaktionsschwungräder gehören daher zu den Teilen die am häufigsten ausfallen. Rosat musste ausgegeben werden als zu viele Reaktionsschwungräder ausfielen. Bei Dawn sind nun (September 2012 auch zwei von vier Schwungrädern ausgefallen). Dawns Mission wird weitergehen, weil sie den Ausfall über den erhöhten Verbrauch von Treibstoff kompensieren kann. Auch hier gibt es nur eine Möglichkeit: Mehr Redundanz. Normale Satelliten starten schon mit vier Reaktionsschwungrädern, obwohl sie nur drei brauchen. Das vierte ist nicht fest in einer Raumachse montiert, sondern kann parallel zu einem schon ausgefallenen geschwenkt werden. Daher wirkte sich auch erst der zweite Ausfall eines Reaktionsschwungrades auf die Mission von Dawn aus.  Bei der ISS sind es sogar sechs. Alternativ kann man zur Spinstabilisierung übergehen, was aber für die meisten Missionen ausscheidet.

Äußere Einflüsse

Das ist das Restrisiko das übrig bleibt. Sonnenstürme wurden schon erwähnt, sie sind aber zumindest noch kurzfristig vorhersagbar. Weltraummüll, der auf Kollisionskurs ist, dagegen nur bedingt. Große Bruchstücke sind erfasst, kleine nicht. Im April 2012 fiel Envisat aus. Bis heute weiß keiner warum. Vielleicht ist er mit Weltraumschrrott zusammengestoßen? Selbst kleinste Teilchen, die nicht den Satelliten im allgemeinen beschädigen, wie Mikrometeoriten oder Lacksplitter können Schaden anrichten, wenn sie z.B. Druckgas- oder Treibstofftank penetrieren oder gerade auf der Optik des Teleskops einschlagen. Als Folge kann der Satellit seinen Treibstoff verlieren und nicht mehr kontrollierbar sein oder die Optik ist beschädigt und man kann keine Bilder mehr machen. Da die Zahl der Trümmer laufend ansteigt, auch weil es doch noch zu Kolissionen kommt, die weitere Trümmer erzeugen, wird von vielen dies als eine der Herausforderungen für die Zukunft betrachtet. Es kann auch soweit kommen, dass Ausweichmanöver so häufig sind, dass dies wieder die Lebensdauer limitiert. Doch dies ist heute noch nicht so.

Lohnt es sich?

Diese Frage ist schwer zu beantworten. Wir haben ja auch auf der Erde Fortschritte zu vermelden. Wenn ein Satellit 15 Jahre alt ist: sollte man ihn ersetzen oder warten? Lohnt es sich Satelliten für 20-30 Jahre Betrieb auszulegen oder sie so zu konstruieren, dass man später wichtige Teile austauschen kann? Nehmen wir Satelliten die etwas beobachten. Sei es die Sterne oder den Boden. CCD Sensoren gibt es schon seit langem. Doch sehr große, fehlerfreie Chips waren früher nicht möglich. Dazu hat die Datenverarbeitung solche Fortschritte gemacht, dass man diese Chips noch zu großen Flächen kombinieren kann. Hubbel startete mit CCD von 800 x 800 Pixeln Größe. Keplers Kamera setzt 42 CCD mit 94 MPixeln ein. Die Datenverarbeitung (inzwischen komprimieren alle Satelliten ihre Bilder und reduzieren so die Datenmenge auf ein Zehntel) ist auch der Punkt der bei geostationären Satelliten zu Buche schlägt. Auch dort müssen die Signale ja verarbeitet werden. Neuere Satelliten haben nicht nur mehr Transpondern in immer höheren Frequenzbändern, sondern sie nutzen die Bandbreite auch effektiver aus. Wenn wir nur noch marginale Fortschritte verzeichnen zumindest in dem was das wichtigste ist, was der Satellit liefert (Bilder, Datenübertragungsrate, Empfindlichkeit etc.), dann wird es sich lohnen Satelliten noch bedeutend länger zu betreiben. Ob eine Reparatur oder das Nachfüllen von Treibstoff sich lohnt ist meiner Ansicht nach zweifelhaft. In jedem Falle muss der Start der Reparatur-Roboters und dieser selbst bezahlt werden. Da fällt es schwer, zu glauben, selbst wenn dies technisch möglich ist, dass dies viel billiger als ein neuer Satellit ist. Das wäre nur möglich wenn der Roboter mit geringem Aufwand viele Satelliten warten könnte, wie z.B. im geostationären Orbit, was eine weitgehende Standardisierung der Satelliten nötig macht.

Auch das gerade für diesen Orbit vorgeschlagene Neubetanken muss kritisch gesehen werden. MDA arbeitet an diesem Konzept, setzt aber chemischen Treibstoff ein. Denn um in den GSO-Orbit zu kommen wird ja auch Treibstoff benötigt. Bei chemischem Treibstoff ist der Nutzen minimal. Bei Ionenantrieben, die dann eher eingesetzt werden in Form eines Gefährts, dass sich am Zielsatelliten festkrallt und dann für ihn alle Lagekorrekturen ausführt, sieht es anders aus. Denkbar wäre bei einer wiederzündbaren Oberstufe dieses viel leichtere Gefährt in einem erdnahen Orbit abzusetzen, dann spiralt es sich nach oben und dockt an den Zielsatelliten an. So würde die primäre Nutzlast der Rakete für den eigentlichen Transport kaum gesenkt werden (Unterschied Nutzlastgewicht LEO → GTO Faktor 2,5 oder höher) und die Startkosten wären niedriger. Doch derzeit wird kein solche Projekt geplant.

Das interessante ist, ist das da wo es sich lohnt nichts geplant wird. Die ISS wird bald von fünf verschiedenen Frachttransportern angeflogen. Jeder besteht aus einem relativ einfachen Druckbehälter für die Fracht und einem Servicemodul, dass dem eigentlichen Satelliten entspricht. Anstatt dieses im Orbit zu belassen und nur jedes mal den Frachtbehälter auszutauschen startet man jedes Mal einen neuen Transporter. Und hier reden wir von 1-4 Transportern pro Jahr! Wenn man das Servicemodul nur zweimal nutzen würde wäre das schon ein Fortschritt (da man Treibstoff zum An- und Abkoppeln und Deorbitieren des Frachtbehälters braucht, wird man das Servicemodul nicht beliebig lange nutzen können aber zwei bis dreimal schon.

26.9.2012: Ankündigungen und Realität

Der eine oder andere hat es bemerkt: Der erste Versorgungsflug von SpaceX für die ISS steht an. Endlich, Drei Jahre hinter dem Zeitplan sind sie ja hinterher. Die Partner mussten die letzten eineinhalb Jahre die Station versorgen und das wäre noch gravierender gewesen, hätte es nicht noch STS-135 mit Vorräten gegeben. Nun sollte man meinen kann die Firma zeigen was sie kann. Wei schreibt sie doch auf ihrer Webseite: "6,000 kg (13,228 lbs) payload up-mass to LEO; 3,000 kg (6,614 lbs) payload down-mass". Na das ist doch eine gute Nachricht. Wie viel Nutzlast transportier nun CRS-SPX1, so die offizielle Flugbezeichnung? Es sind 450 kg. Ja das ist kein Witz. Ich bin überrascht, denn in NASA Dokumenten fand ich 1.268 kg. Also nochmals deutlich weniger. Wie praktisch immer wie bei SpaceX sinken die Nutzlasten. Die Falcon 9 "v1.1" wurde 2011 noch mit 16 t LEO angekündigt, aktuell liegt sie noch bei 13,23 t. Ganz besonders übel hat es die Falcon Heavy erwischt, deren GTO Nutzlast von 19 auf 12 t absank.

Man kann leicht ausrechnen, dass wenn die "v1.1" mit 480 t Startmasse 13,23 t transportiert, das derzeit 314 t schwere "v1.0" Vehikel dann im Bereich von 8,6 t liegt. Auch das verwundert mich nicht, das habe ich vor vier Jahren schon errechnet und die DLR hat bei einer Berechnung ungefähr das gleiche rausbekommen. Für ISS Bahnen ist es dann noch etwas weniger (nimmt man das Users Manual so kommt man auf ungefähr 7740 kg bei 8650 kg 200 km, 28,5° LEO-Maximalnutzlast) und da die Dragon leer 4,9 t wiegt, 1,29 t Treibstoff zulädt sind wir schon bei 6,19 t leer. Da bleiben nur noch 1,55 t und ein Orbcomm Satellit wird auch noch transportiert und da dieser in eine höhere Bahn gelangt braucht man noch etwas Treibstoff in der zweiten Stufe für die nächste Zündung. So bleibt nicht viel übrig. Eben 450 kg.

133 Millionen Dollar bekam (der Flug und der nächste sind ja schon bezahlt) SpaceX für 450 kg Nutzlast. Hmmm, also Preisbrecher sieht bei mir anders aus. Aber vielleicht rechne ich auch falsch und die Firma rechnet Up- und Downmass zusammen, dann sind es immerhin 1015 kg. Das sollte man der ESA sagen, dann kann das ATV nämlich nicht 7,7 sondern 13,2 t transportieren.....

Und dann gibt es noch Neuigkeiten von Grashopper. Ja dieses Versuchsvehikel hat abgehoben - so irgendetwas zwischen 10 und 20 cm, siehe Video: http://www.youtube.com/watch?v=ObJb3OncSEY

Ich vermute mal das war so nicht geplant. Sonst hätte die Medienabteilung von SpaceX auch was rausgelassen, denn wir wissen ja ankündigen tun sie viel, nur mit dem Halten klappt's noch nicht so ganz....

30.9.2012: Hauptsache das Gehalt stimmt.

Ich bin teuer Wetten-Dass Fan, ich glaube ich habe keine Sendung ausgelassen. So war ich sehr betrübt, als Thomas Gottschalk vor knapp zwei Jahren ankündigte die Show zu verlassen. Der Unfall vor zwei Jahren soll daran schuld gewesen sein. Schon damals wurde gemunkelt, Gottschalk wolle sich abseilen, solange ihm die Leute noch nachtrauern, nicht wenn es heißt "endlich geht er". Die Quoten waren ja schon rückläufig. Immer mehr Kritik gab es an Gästen die nur wegen dem Promibonus kamen und nicht lange blieben und nichts wesentliches zur Sendung beitrugen, aber auch den seichten Gesprächen von Gottschalk,

Nun ja aufzuhören, wenn einen jeder vermisst, das ist keine dumme Idee, nur sollte man dann nicht wenige Monate später bei der ARD anfangen. Gottschalk live begann chaotisch. Wie immer, war Gottschalk nicht vorbereitet und wenn man dann Bully Herbig einlädt und nicht mal ansatzweise weiß, wann der Filme produziert hat, ist das schon peinlich. Danach wurde es besser, um dann wieder abrupt eingestellt zu werden. Damit hatte Gottschalk wohl die Lust verloren, denn dann wurden im letzten Monat nur noch Wünsche als Kurzeinspieler vorgestellt unter denen die Zuschauer wählen konnten. Die meisten Wünsche drehten sich um Geld und waren schlecht nachvollziehbar. So gab es zwei die Bücher schreiben wollten - ein Zwillingspaar über Fragen die sie dauernd bekommen und eine Frau die den Brustkrebs besiegt hat. Und beide brauchen mindestens 10.000 Euro um ein Buch zu schreiben. Nun ich kann ein Buch für rund 50 Euro publizieren und dann kommen noch 2 Euro Kosten pro Monat hinzu. Also keine 10.000 Euro und ich hätte beiden Büchern gute Marktchancen eingeräumt.

Also im Mittelteil nachdem die Sendung zu sich gefunden hatte (auch wenn sie dann nicht mehr "live" war) gefiel mir das, aber was der Sendung den Hals brach war der Sendetermin. Weder ich noch die meisten Zuschauer hatten da Zeit.. Anstatt 20-30 Minuten im Vorabendprogramm wäre eine längere Sendung pro Woche abends besser gewesen.

Und nun sitzt Gottschalk zusammen mit Bohlen in der Jury im "Supertalent". Kann man innerhalb eines Jahrs denn tiefer sinken? Ich frage mich ehrlich, warum der Mann sich das antut. Ich glaube kaum, dass er bei den Gagen durch Wetten Dass (100.000 Euro pro Folge) keine Rücklagen hat und nun dazu "gezwungen" ist. Dazu gibt es sicher noch viel Geld durch die Haribo Werbung. Laienhaft könnte man sagen, dass er sich nun aufs Altenteil zurückziehen könnte. Da verdient man zwar nichts, aber der Ruf bliebt erhalten. Was hat man von Kulenkampff in Erinnerung - EWG und von Wim Thoelke? Der Große Preis. Beide sind nicht auf die Idee gekommen, danach was neues zu machen was sie demontiert und bei Gottschalk live war ja schon beim Sendetermin klar, das es ein Flop wird. Wer hat Zeit um 19:20 für eine Talkshow?

Das nächste was mir einfällt ist, das der Mann nicht anders kann. Schaut man sich auf Wikipedia an was er gemacht hat, dann ist und war das neben Wetten Dass auch immer eine Menge gewesen. Andere Formate, Specials, Nebenrollen in Filmen etc. Nur: solche Workaholics die sind meist auch Perfektionisten und gut vorbereitet und bei Gottschalk hat man den Eindruck er kommt 5 Minuten vor der Show, bekommt ein paar Kärtchen in die Hand gedrückt und moderiert dann frei nach Schnauze.

In jedem Falle hat er bei mir an Achtung verloren, denn diese Castingshows, vor allem die mit Bohlen, laufen ja darauf hinaus sich über die Kandidaten lustig zumachen und das sollte man durch seine Anwesenheit nicht noch unterstützen. Ich kann mir diese Entscheidung wirklich nur mit dem finanziellen Anreiz erklären, der ja wohl auch bei anderen dazu führt, dass sie von Sender zu Sender springen wie z.B. Jörg Pilawa.

Lieber Thomy, vielleicht wartest Du ab bis ein Konzept oder Format sich findet hinter dem Du 100% stehen kannst. Eines das Dir und dem Zuschauer was bringt. Und wenn Du bis dahin Langweile verspürst und Du dich nicht ausgelastet fühlst, wie wäre es wenn Du deine Popularität für wohltätige Zwecke einsetzt und Spendengelder eintreibst? Das hilft auch gegen Karriereknicks.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99