Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 358: 17.11.2013 -

17.11.2013: Eine gemeinsame Oberstufe für Delta und Atlas

Seit sich Boeing und Lockheed Martin zu ULA zusammengeschlossen haben, denken die Firmen auch darüber nach die Kosten zu senken. Das kann man bei den Startservices machen weil man in der Regel nur eine Rakete auf den Start vorbereitet, so braucht nicht jede Firma ihre eigene Mannschaft vor Ort haben, man kann das aber auch bei den Trägern machen. Eine Überlegung die schon aufkam war die Oberstufen auszutauschen, also die Centaur auf der Delta und die DCSS auf der Atlas. Sinn macht nur das erste, weil die DCSS eine im Verhältnis zur Centaur höhere Leermasse hat, die den höheren spezifischen Impuls wieder ausgleicht. Ebenso wurde schon gedacht das RL-10B2 auf der Centaur einzusetzen.

Aber warum nicht weiter gehen und eine neue Stufe, basierend auf den vorhandenen Triebwerken und Legierungen entwerfen? Ihr wisst ja, ich rechne das gerne praktisch durch. Dangen wir an mit den Triebwerken, es gibt zwei Möglichkeiten das RL-10A-4 mit 99,2 kN Schub und das RL-10B mit 110 kN Schub. Auch der spezifische Impuls des RL-10B ist höher.  Es wiegt aber 100 kg mehr. Problematischer ist das es einen Düsenenddurchmesser von 215 cm hat. Bei der Atlas können für schwere Nutzlasten zwei Triebwerke notwendig werden und mit so breiten Düsen wird das problematisch. Eine Alternative wäre ein neues Triebwerk der 250 kN Klasse, das dann Oberstufen mit einer Treibstoffzuladung von 41 t ermöglicht. Bedingt dadurch dass man nur eines braucht und wahrscheinlich ein höherer Brennkammerdruck angestrebt wird, wird dessen Düse dann wieder in den kleineren Stufenadapter der Atlas passen.

Die beste Lösung dürfte aber das RL-10C sein, dass ist ein RL-10B das keine ausfahrbare Düsenverlängerung hat, aber die normale Düse wurde leicht verlängert. Es passt noch in den Stufenadapter der Atlas. Dem sollte sich ein Schubrahmen anschließen mit drei Positionen. Bei nur einem Triebwerk sitzt dieses in der Mitte, bei zwei sitzt in den beiden äußeren Positionen jeweils eines.

Kommt der Hauptteil, die Stufe. Die DCSS ist keine supertolle Konstruktion mit zwei getrennten Tanks. Das sieht man auch daran, dass die Stufe bei der größeren Version bei 6 t mehr Treibstoff gleich 700 kg mehr wiegt. Auf der anderen Seite ist die Centaur auch keine so moderne Konstruktion. Sie ist innendruckstabilisiert, aber aus Edelstahl. Aber sie hat einen Integraltank. Das sollte man beibehalten, jedoch die leichtere Aluminiumlegierung 2195 wählen. Diese war für die Oberstufen von Ares geplant und wurde im Space Shuttle Tank eingesetzt.

Der Durchmesser sollte so gewählt werden, das das Gewicht zum einen gering wird, zum anderen die Rakete kompatibel mit beiden Trägern ist. Das ist nun etwas komplizierter. Bei der Delta ist es so, dass die CBC einen Durchmesser von 5,10 m hat. Die Nutzlastverkleidung einen von 4,00 und 5,13 m. Bei der Atlas beträgt der Durchmesser der CCB 3,80 m, die der Nutzlastverkleidungen 4,20 und 5,40 m. Eine stufe die überall hinpasst wird man kaum, finden. Denkbar sind in meinen Augen zwei Lösungen. Das eine ist man passt den Durchmesser an den kleinsten Stufendurchmesser, also den der Atlas  an. Die zweite ist, man legt sie auf den Durchmesser der Delta von 5,10 m aus und verzichtet auf die 4 m Nutzlastverkleidungen bei beiden Trägern und standardisiert den Durchmesser der 5 m Verkleidungen auf ein Maß.

Das wäre dann ein Durchmesser von 5,10 m. Bei zwei Triebwerken wäre auch denkbar den zylindrischen Teil der Stufe zu verlängern, da man nun doppelt so viel Schub hat, aber die Startmasse nicht so viel größer ist. Nimmt man eine konstante Beschleunigung an, so dürfte die Treibstoffmasse um 10 t ansteigen. Bei 27,2 t Basiszuladung (Delta IV DCSS 5 m Version) und 37,2 t erweiterte Zuladung und einem LOX/LH2 Verhältnis sind das 57,3 m³ LH2 / 78,6 m³. Bei LOX sind es 20,4 / 27,9 m³. Bei einem zylindrischen Tank sind dies bei 5,10 m Durchmesser eine Länge von 2,80 m / 3,90 m (LH2) und 1,0 / 1,4 m Länge. Das bedeutet die Stufe ist relativ kompakt. Bei 4 m Durchmesser sind es 56,25% mehr. Das bedeutet die Länge des zylindrischen Teils des Treibstofftanks liegt zwischen 3,80 m (kurze 5,1 m Version) und 8,30 m (lange 4 m Version). Ich würde daher eher zur 4 m Version neigen. Basierend auf den Daten des Wasserstofftanks des Space Shuttles kommt man so auf ein Gewicht des Tanks von 1.800 kg (lange Version) bzw. 1400 kg (kurze Version).

Modernisiert sollte auch das System der Hilfsantriebe. Beide Stufen nutzen Hydrazin und zusätzliche Lageregelungstriebwerke. Sie sind für die Vorbeschleunigung zuständig, Kolissionsvermeidungsmanöver und für die Lageregelung während Freiflugphasen. EADS Astrium hat aber schon 300 N LOX/LH2 Antriebe im Angebot. Das spart einen zusätzlichen Treibstofftank ein. Zudem kann man den vorhanden Treibstoff so effizienter nutzen.

Nimmt man nun außer den Triebwerken und dem eingesparten Hydrazin die Masse der Subsysteme der Centaur G hinzu so kommt man auf eine Trockenmasse von 3.240 kg (kurze Version) und 3630 kg (lange Version). Das ist eine konservative Schätzung weil die Centaur G relativ viel Gewicht in den Systemen hat, die zur Avionik gehören, aber leider ist es die letzte moderne Stufe für die ich einen Massenbreakdown habe. Die Centaur D sah da erheblich besser aus.

Bei der Delta ist so die Nutzlast bei der kurzen Version um 250 kg höher, da die Treibstoffzuladung identisch ist, die Startmasse aber um 250 kg kleiner. Bei der größten Atlas V wäre die GTO-Nutzlast um 630 kg höher. Bei den langen Versionen wäre die Nutzlast bei der Atlas V für GTO-Transporte um 2300 kg höher und bei LEO-Missionen um 5000 kg. Bei der Delta IV Heavy würde die lange Version die Nutzlast um 2400 kg anheben und bei der größten Delta 4M um 1900 kg. Hier wirkt es sich aus, das als Zusatzgewicht nur ein Triebwerk und ein zylindrisches Tankstück hinzukommt.

In der Summe gewinnt man bei beiden Trägern etwas Nutzlast bei den Standardversionen und relativ viel bei den verlängerten Versionen. Der Hauptnutzen ist aber die Kostenreduktion. derzeit werden für rund 8 Starts pro Jahr zwei verschiedene Oberstufen in drei Ausführungen mit zwei Triebwerken gebaut. Sie könnten durch eine Oberstufe mit zwei Triebwerken und einer Ausführung ersetzt werden, wobei sich diese nur im verlängerten Tank unterscheidet (bei der DCSS sind es zwei verschiedene Tanks). Damit steigt die Stückzahl und die kosten sinken.

Ähnliche Ansichten hat auch die Air Force die zur Zeit die Ausschreibung für eine evolved Upper stage laufen hat. Sie scheint aber eher die anfangs beschriebene Option mit einem neuen Triebwerk der 200 bis 250 kN Klasse zu bevorzugen.

Referenzen:

http://www.ulalaunch.com/site/docs/publications/EELVPhase2_2010.pdf

http://www.alternatewars.com/BBOW/Space_Engines/RL10B-2.pdf

http://www.alternatewars.com/BBOW/Boosters/Centaur/RLTC_Weights.gif

http://www.spacenews.com/article/us-air-force-ponders-new-upper-stage-rocket-engine

18.11.2013: Video killed the Information und das Glück

Da ich derzeit gerade am dritten Aufsatz über eine US-Raumsonde bin fällt mir eines auf, das ich schon seit mindestens einem Jahrzehnt beobachte: Der Rückgang der Informationen. Als das Internet jung war, so zu Zeiten von Mars Pathfinder gab es enorm viel Information über die Raumsonden. Wissenschaftler beantworteten fragen, IBM war so stolz über den Bordcomputer das es eine eigene Website gab, bei Mars Global Surveyor wurden ganze Dokumente über den Aufbau der Sonde online gestellt.

Das wurde sukzessive immer weniger, mit einigen Abweichungen nach Oben wie dem MSL als Großprojekt. Aber bei Juno sieht es wirklich mau aus. Ähnliches habe ich schon bei GRAIL und LADEE beobachtet. Früher war es noch möglich über die Instrumente viel rausbekommen, weil diese oft auf wissenschaftlichen Kongressen vorgestellt wurden, doch das scheint nun auch nicht mehr so zu sein. Meine früher immer erfolgreiche Methode nach "Raumsondenname Experimentname" und filetype:pdf oder filetype:ppt zu suchen liefert immer weniger brauchbare Resultate.  Es ist heute fast unmöglich einen Aufsatz in der epischen Breite wie über Voyager oder Galileo zu schreiben (wo es ja nicht ein Aufsatz ist, sondern mehrere). Stattdessen finde ich auf Webseiten immer mehr Videos, Animationen, viel Flash, was diese natürlich auch für Google undurchsuchbar wird. Die Website der ESA kann man ohne Flash gar nicht mehr besuchen und besonders schlimm: sie hat nicht nur ihre Druckpublikationen eingestellt (zumindest bekomme ich keine mehr) sondern die Online-Aufgaben sind nun nicht mehr als PDF vorliegend, sondern ebenfalls in einer Flash-Animation zum Lesen. Toll wenn ich das in ein par Jahren zum Recherchieren brauche.....

Eine Firma hat den Trend ja verstanden und Informationen über sie gibt es nur noch in Videos. Ich schaue mir kein einziges (egal woher) an. Zum einen weil es extrem zeitraubend ist verglichen mit dem Lesen, man nicht schnell blättern oder durchsuchen kann und natürlich bei englischsprachigem Content das Problem da ist, erst mal die Sprache zu verstehen. Es ist ein Unterschied englisch zu lesen oder englisch zu hören. Vielleicht sollte ich auf den Trend aufspringen denn ein Vorteil ist da: für den Publisher. Es geht viel schneller ein Video zu drehen als zu schreiben. Wenn ich dran denke, wie lange ich an einem Blog sitze (so 2-3 Stunden für einen mittellangen) und wie schnell ich den gleichen Text aufgesagt habe, sollte ich sofort auf Videos oder besser Audio mit Standbild umschalten, denn mein Gesicht muss man nicht unbedingt im Internet sehen.

Dann gibt es die ARD Themenwoche über das Glück. Da das bei mir wegen einer Winterdepression jahreszeitlich schwankt, zumindest das "glücklich sein", denke ich gerade wieder mal dran wie schön es wäre wonders zu sein. Wo die Sonne scheint, vielleicht noch warmes Wasser zum Schwimmen da ist. Also im Herbst/Winter denke ich regelmäßig drüber nach, wie schön es wäre zumindest diese Jahreszeit woanders zu verbringen. Leider gibt's immer ein paar Nachteile. Wo die Infrastruktur so ist wie bei uns, ist es meist teuer, wo das nicht der Fall ist ist es billig, aber wenn man an Dingen wie Internet oder Online Bestellung hängt, eben keine Alternative. Daneben gibt es, wie wir gerade sehen, in vielen subtropischen Gefilden die Gefahr von Orkanen, Hurrikans oder Taifunen, je nachdem in welchem Weltmeer man gerade ist oder es bricht in Vulkan aus (Indonesien) oder es gibt ein Erdbeben. Oder es geht gleich die ganze Insel bzw. das Land (fache Südseeinseln, Bangladesch) durch den Meerespiegelanstieg unter.

Für mich als "Hocketer-Schwob" der sich nicht allzu weit von seinem Wohnort entfernt wird es eh beim Träumen bleiben. Schlimm wäre es ja nur wenn es keine Nachteile gäbe, dann müsste ich ja konsequenterweise wirklich meinen Wohnsitz verlagern ....

19.11.2013: Die überflüssigste Raumsonde/Satellit.

2015 darf die Firma SpaceX mal eine Regierungsnutzlast transportieren. Sinnigerweise eine auf die die NASA verzichten kann, bzw. seit gut 12 auf den Start Jahren verzichtet. Also die ideale Testnutzlast. Es geht um das Deep Space Climate Observatory (DSCOVR). Es handelt sich um eine Raumsonde die im L1-Lagarangepunkt positioniert wird. Dieser stabile Punkt des Dreikörpersystems Erde-Sonne-Satellit liegt 1,5 Millionen km von der Erde entfernt in der Linie Erde-Satellit-Sonne. Von dort aus kann man die Erde immer als Vollerde sehen. Bislang gelangten vor allem Sonnenobservatorien in diesen Punkt, weil man natürlich dort die Sonne ohne Abschattung beobachten kann und es eine (wenn auch geringe) Vorwarnzeit bei einem Sonnensturm gibt.

MeteosatDSCOVR wurde 1998 von Al Gore, damals noch Vizepräsident proklamiert um den Umweltgedanken voranzutreiben. Er versprach sich von Aufnahmen der Erde von diesem Satelliten die im Internet veröffentlicht wurden den gleichen Effekt wie die "Blue Marble" Fotos der Apollo Astronauten. Als Galileo 1990 an der Erde vorbeiflog, zierte ein dabei gewonnener Film aus zusammengesetzten Aufnahmen lange den Vorspann einiger US-Sender. Das mag ihn inspiriert haben.

Die NASA setzte das um, ist es doch ein Wunsch des Vizepräsidenten. Doch der Start verzögerte sich und nach der Columbia Katastrophe wurde er ganz auf unbestimmte Zeit ausgesetzt. Die NOAA hat danach die Instrumentierung vervollständigt, sodass es außer den Bildern noch einen gewissen wissenschaftlichen Nutzen gibt. So wird die Kamera nicht nur Aufnahmen der Erde machen, sondern auch verschiedene engbandige Filter haben, mit denen man die globale Konzentration von Spurengasen verfolgen kann, ein Radiometer wird die gesamte Strahlung der Erde zwischen dem UV und langwelligen Infrarot messen. Man erhofft sich dadurch Rückschlüsse über die Strahlungsbilanz also wie viel der Sonnenstrahlung wieder ins All abgegeben wird und einige weitere kleinere Instrumente zur Detektion von Ionen und Elektronen werden die Plasmaumgebung erforschen.

Inzwischen wechselte der Eigentümer des inzwischen "Goresat" titulierten Raumflugkörpers aber zur USAF, die den Satelliten (eigentlich eine Raumsonde) einmottete. 2006 wurde DSCOVR eingelagert - für 1 Million Dollar pro Jahr (anscheinend ist in der Raumfahrt alles teuer. Ein abgeschlossener Container mit Klimaanlage und Staubfilter sollte eigentlich für die Lagerung reichen....)

Nun soll 2015 eine Falcon 9, weil es wohl die billigste Möglichkeit ist das ganze Starten, zumindest ist man die Sache dann endlich los, vielleicht hofft man ja auch das die Nutzlast in rauch aufgeht, das spart Folgekosten. DSCOVR ist eine Testmission der USAF, eine zweite wird nur Bahnmanöver durchführen und die Falcon 9 Heavy testen. Auch die NASA ist vorsichtig, den JASON-3 ist nur ein von der NASA im Auftrag gebauter und betreuter Satellit, aber kein NASA Projekt, sondern ein gemeinsames der Wetterbehörden NOAA und Eumetsat. Ähnliches gibt es auch in Europa wo die ESA Meteosat bauen lässt die aber von Eumetsat finanziert und nach dem Start übernommen werden. Auch hier ist man gerne bereit für eine Mission die keine eigenen Instrumente trägt gerne eine Falcon 9 zu buchen.

MeteosatAn DSCOVR gab es schon, als er propagiert wurde Kritik. Das erste war, dass man meinte dafür keine eigene Mission starten zu müssen. Nun gibt es in der Tat, wenn es nur um die öffentlichkeitswirksame Abbildung der Erde gibt schon etliche Aufnahmen.  LRO kann die Erde vom Mond aus aufnahmen, genauso wie dies die Apolloastronauten taten (das tut übrigens DSCOVR nicht). Bilder von geostationären Wettersatelliten sind frei verfügbar und zeigen auch die Erde. Allerdings aus anderer Perspektive, aber das gilt auch für Aufnahmen vom Mond aus. Jeder Satellit auf einer Erdumlaufbahn wird die Erde mit Phasen zeigen. Nur um 12 Uhr sieht man die ganze Erde. (Bilder links von heute (18.11) 7:00 Uhr und gestern 17.11.2013 um 12:00). Ich finde diese Bilder sogar ästhetischer. Selbst wenn ich Wert auf Vollerdebilder lege, so gibt es mindestens fünf Wettersatelliten im Orbit die jeden Tag fünf dieser Bilder umsonst machen. Dazu kommen die Aufnahmen die bei Erdvorbeiflügen von Raumsonden wie z.B. im Oktober von Juno entstehen. Ich glaube kaum das viele Leute sich für mehr als einige Aufnahmen pro Tag interessieren. Hinsichtlich anderer Missionen ist man ja eher eine Aufnahme pro Woche (Mars Express) gewöhnt.

Man hat nun zwar noch einen gewissen wissenschaftlichen Wert um die Aufnahmen herum konstruiert, doch da ist nichts dabei was nicht auch auf einem Wettersatelliten oder Satelliten zur Erforschung des Erdmagnetfeldes nicht schon installiert wäre. Nur sind diese näher am Beobachtungsobjekt und liefern präzisere Daten mit höherer Auflösung und höherer Sensitivität. Das ist logisch, wenn ich etwas beobachten will geht das besser aus 1500 km Entfernung als auf 1,5 Millionen km. Selbst wenn die Instrumente wichtig wären - braucht man dafür eine eigene Sonde? Zeitgleich mit dem geplanten Start von DSCOVR startete z.B. die Raumsonde Genesis in den L1-Punkt sie war so leichtgewichtig, das sogar eine Delta 2 mit weniger Boostern reichte. Es stellt sich die Frage, warum man nicht einfach diese Raumsonde die primär Sonnenwind einfangen sollte nicht einfach noch mit den Instrumenten ausgerüstet hat.

Kurzum: DSCOVR ist überflüssig. Aber er steht für die NASA der Goldin Ära - preiswerte Sonden mit geringem wissenschaftlichem Wert die faster., better und cheaper, pretty nice Pixs machen. Um viel mehr ging es in dieser Ära nicht.

20.11.2013: Eine Antwort an Embacadero

Derzeit macht Embacadero, das ist die ehemalige Entwicklungsabteilung von Borland, die nun eine eigene Firma ist, eine Umfrage, die sich an Delphi 7 und 2007 Entwickler richtet. Und zwar, warum sie nicht umgestiegen sind. Delphi 7 stammt aus dem Jahr 2002. Delphi 2007 aus dem Jahr 2007, wie man vielleicht auch so vermuten kann. Offenbar entwickeln noch viele damit. Der Fragebogen hat einige Fragen was einen davon abhält, wie IDE Neuerungen oder Datenbank Änderungen. Sicher gibt es eine Umstellung, die 2009 erfolgte von 8-Bit Code auf Unicode in der ganzen RTL. Das ist ein Hindernis wenn man Fremdkomponenten hat und die vieles im C-Stil erledigen also viel mit Pointer auf AnsiChar oder nullterminierten Strings arbeiten. Es dauerte auch einige Jahre bis ich alles angepasst hatte was ich an Komponenten hatte bzw. angepasste Versionen fand, (einiges wurde vom Autor nicht mehr weiterentwickelt, ist aber einfach nützlich).

Aber der Grund ist meiner Meinung nach viel einfacher und er zeigt sich schon in der Wahl der beiden Versionen, denn eines haben beide gemeinsam: von beiden wurden relativ viele "Personal" Versionen verteilt. Es gab früher immer wieder Delphi Versionen die verschenkt wurden. Aber bei der 7 waren es besonders viele. Sie lag unter anderem einen populären Delphi Buch "Delphi for Kids" und der ct' als Europas auflagenstärksten Computerzeitschrift bei. Bei der 2007 gab es die kostenlosen Turbo Versionen, die in der Nutzung beschränkt waren, trotzdem haben die wohl vielen gereicht.

Zwei Dinge prägten die Delphi Entwicklung seit Delphi 2 bis Delphi 7. Das eine ist, das der eigentliche Compiler und die Grundzüge der Sprache kaum geändert wurden. Es gab einige kleinere Veränderungen, natürlich neue Routinen in den einzelnen Units, doch die konnte man, wenn man wollte, auch selbst programmieren, dafür kauft man sich keine neue IDE. Das zweite war, das bei den Komponenten jenseits der Standardkomponenten viel geändert wurde. So mehrmals die Report und Datenbankkomponenten.

Mit Delphi 2005 kam eine neue IDE mit angedocktem Fensterlayout, anstatt dem vorher schwebenden Layout. Sonst änderte sich aber auch am Kern nichts. Die Zusatzfunktionen wurden immer reichhaltiger, wie Refactoring, XML-Dokumentation, Einbindung des UML-Werkzeugs Together etc.

Mit Delphi 2009 kam der schon beschriebene Wechsel auf Unicode. Seit Delphi XE2 arbeitet man wieder am Compiler. Er kann nun auch 64 Bit Code, und stückweise immer mehr Plattformen unterstützen. Bei XE2 war es IOs, inzwischen kann er bei XE5 auch die mobilen Apple Geräte und Android Geräte ansprechen.

Wie man an den vielen Versionen sieht: es gibt viele. Vor allem in den letzten Jahren jedes Jahr eine. neue. Was auch angestiegen ist, sind die Preise. Ein Upgrade der Professional Version kostet 653,31 Euro. Also ich Delphi 8 kaufte, kostete die Professional Version noch 299 Euro und da war Delphi 7 dabei, weil Delphi 8 nur .NET Code erzeugte. Also in 9 Jahren ist es um 100% teurer geworden, Seitdem hatte ich das Glück, immer als Angestellter einer Hochschule de akademische Version zu kaufen die bezahlbar ist, aber sonst wäre es mir schlicht zu teuer. Wer nun wirklich für Android entwickeln will, kommt mit der Professional Version aber nicht weiter sondern braucht eine EnterpriseVersion oder ein Add-On Pack, das weitere 593 Euro kostet. Dabei ist das nur der Preis für Delphi, also nicht das RAD Studio, das so das Gegenstück zu Visual Studio ist und noch C++ enthält. (Die inzwischen im Portfolio befindlichen IDE für Ruby und PHP sind nicht dabei, ebenso wie Delphi Prism als Add-On für Visual Studio).

Es gibt noch die Starter Edition. Aber sie umfasst nur den 32 Bit Compiler für Windows. Okay, ich kann auf Crosscompilierung verzichten (Delphi läuft ja nach wie vor nicht unter Android oder iOS), aber so langsam aber sicher wird 32 Bit Windows aussterben. Trotzdem kostet diese Version alleine schon 177,31 Euro. Das finde ich unverschämt, vor allem wenn man sich mal den Code ansieht. Da hat sich nichts seit Delphi 2 geändert. Hinter allen Befehlen die auf die XMM Register zugreifen also Fließkommarechnungen, steht ein "Wait" als wäre noch ein externer Coprozessor eingebaut. Der 64 Bit Compiler hat zwar auch keine Möglichkeit die Codeplattform einzustellen (anscheinend brauchen das Pascal Programmierer, anders als C-Programmierer nicht) aber ist wenigstens so bei Fließkommaberechnungen um den Faktor 2 schneller. Das die Codeplattform schon eine Bedeutung hat zeigt der C-Builder. Übersetzt man das Linpack Benchmark mit Standardeinstellungen kommt mein Rechner auf 200 MFlops, stelle ich die Plattform auf Pentium Pro um (höher geht's nicht) und die Optimierungen an, so sind es plötzlich 800 MFlops (Athlon 5050e 2,6 GHz, Wert für 1 Kern). Also würde ich erst mal da am Compiler was schrauben.

Nun ist Embacadero eine Firma, die von den verkauften Versionen lebt. Das unterscheidet sie von Microsoft, die Express Versionen ihres Visual Studios verschenken kann oder IBM die das gleiche mit Eklipse tut. Beie Firmen haben Gewinne aus anderen Bereichen. Aber man kann es übertreiben. eine vernünftige Lizenzpolitik mit bezahlbaren Versionen für Hobbyprogrammierer oder Personen die nicht Vollzeit ihr Geld damit verdienen, wäre dringend angebracht. Damit kann man dann auch andere für die Sprache interessieren. Bei einem Compiler für Windows wäre für mich die Schmerzgrenze bei 99 Euro, bei zweien (32/64 Bit) bei 149 Euro.

Vor allem wäre es wichtig, nicht jedes Jahr eine neue Version herauszubringen, da wartet man ja geradezu auf die nächste Version. Vom Visual Studio, Office, Windows gibt es alle 3 Jahre eine neue Version, das ist ein guter Zeitrahmen, dann kann eine neue Version auch genügend neue Features aufweisen dass sich ein Kauf lohnt.

Zumindest bewegt sich ja nun etwas in der Weiterentwicklung, die so lange stagnierte oder sich an der Oberfläche austobte. Wenn man es jetzt noch hinbekommt einzusehen, das man mehr umsatz macht mit billigeren Versionen weil es mehr Käufer geben könnte und diese auch bei nicht so vielen Versionen eher zugreifen, dann könnte es noch was werden.

Coss-Plattfom Übersetzen geht auch einfacher. Lazarus ist ganz einfach auf einem Raspberry Pi zu installieren, also einem ARM-Rechner unter Linux. Da kann man die Programme auch gleich auf dem Rechner programmieren. Erst mal werde ich mein Projekt aber weil der Raspberry doch etwas langsam ist unter Windows erstellen und dann erst wenn es um die Hardwarezugriffe geht am Raspberry fortsetzen.

21.11.2013: Do you want to test the Audience?

Frage eines Zuschauers bei einem "modernen klassischen" Konzert an den Sänger "I think you want to the test the Audience?". Antwort des Pianisten "Isn't the whole life a test of the audience?"

Tja Informationsverhappung ist die eine Seite, doch liest auch jemand die längeren Texte aufmerksam? So habe ich mir erlaubt, weil die Überschrift in Spaceflight now ja nicht ganz so klar war, die Aussage genau umzudrehen. (Was nebenbei gesagt logischer gewesen wäre).

Ich habe mich natürlich geärgert wenn man meinem Blog "Informationsverhappung" unterstellt. Ich sitze jeden Tag 2-3 Stunden am Blog, wenn es ein längerer Artikel ist, ab und an greife ich auch Alltagsthemen auf, dann gehts schneller und dann kommen meist auch schon Kommentare, warum ich das Thema aufgreife oder was das im Blog soll etc. In der Länge sind es zwischen 4 und 6 Normseiten und das dies viel Arbeit ist können sicherlich die Gastautoren bestätigen.

Artikel wie auf der Website brauchen noch viel länger. Seit knapp zwei Wochen bin ich am Juno Aufsatz dran, was allerdings primär mit der sehr schlechten Informationspolitik zu tun hat (was mich ja auch zum vorletzten Blog bewegte). aber auch so brauche ich für einen recherchierten Artikel mehrere Tage bis eine Woche. Das ist im Blog nicht machbar und ich vermute niemand würde einen so langen Blog lesen wollen.

Man kann sicher viel am Blog herummosern, dass ich mir meistens nicht die Zeit nehme noch alle Rechtschreibung / Grammatikfehler auszubügeln, dass ich viele Themen immer wieder aufgreife (meistens solche wo ich mich durch die Recherche zu meinen Büchern aufrege wie die Situation bei den ATV oder der Ariane 5/6/Oberstufendiskussion), aber das zu wenig Information drin wäre, quasi in Häppchen, das wohl wirklich nicht. Ab und an teile ich einen Webseitenaufsatz in mehrere Teile auf, weil ich keine Zeit für den Blog hatte, doch dann gibt es in jedem Fall einen Link auf die Website wo er ganz steht.

Wenn also Kai die Informationsverhappung stört dann ist er gerne eingeladen sich hier im Blog selbst einzubringen. Das steht übrigens jedem frei, nicht nur Kai.

Ansonsten: "Das ganze Leben ist ein Quiz und wir sind nur die Kandidaten. Das ganze Leben ist ein Quiz und wir raten - raten - raten. Hurz!"

http://www.youtube.com/watch?v=iyGi5SEI9RI

22.12.2013: Wenn Forschung und Entwicklung zur Nebensache wird

Die Einstellung der ASRG Entwicklung ist symptomatisch wie es in der NASA - ähnliches könnte man aber auch von der ESA sagen - steht. Die Agentur stand mal dafür progressiv Technologien zu entwickeln. Inzwischen ist dies weitgehend zum Erliegen gekommen, dieser Eindruck drängt sich einem auf, wenn man sich Meldungen anschaut. Nun hat die Raumfahrtagentur die Entwicklung von ARG eingestellt. ASRG sind Stromgeneratoren die über einen Sterling Motor Strom aus der Zerfallswärme von Plutonium-238 erzeugen. Sie werden seit mindestens 10 Jahren untersucht, zumindest bin ich vor dieser Zeit auf die Technologie gestoßen. Natürlich ist der Wechsel ein Risiko. Anders als die bisherigen RTG sind mechanische Teile im Spiel, die verschleißen oder sich festsetzen können. Doch in den Jahren die seitdem vergangen sind, hätte man ja einige Exemplare im Dauertest testen können. Selbst wenn dies nicht reicht, so hätte man einen ASRG zusätzlich in einer Mission mitführen können, z.B. bei Juno oder Curiosity. Wenn's klappt hat man mehr Strom, wenn nicht ist man schlauer. Es ist ja nicht das erste Mal, dass die NASA eine Technologie bei der Energiegewinnung aus Pu-238 ad acta legt. So gab es auch mal die Idee Alkalimetalle (AMTEC) zu erhitzen und sie durch einen Beta-Aluminium-Festkröper-Elektrolyten zu pumpen. Auch das versprach Wirkungsgrad von 13 bis 25%. Diese AMTEC wurden auch eingestellt.

Was beide Konzepte als Vorteil haben: Sie wandeln 20 bis 25% der Wärme in Strom um. Bei den GPHS, die unverändert seit 1986 im Einsatz sind, und deren Grundbauweise sich seit 40 Jahren nicht geändert hat, sind es 6%. Da die NASA etwa 90 Millionen Dollar für die Fertigung eines GPHS mit 285 Watt Leistung zahlt, vor allem aufgrund des Plutoniums, bei dem mit einem Mitteleinsatz von 10 Millionen Dollar pro Jahr 1-1,5 kg des Materials produziert werden (ein GPHS hat rund 7,5 kg davon) sollte der Vorteil offensichtlich sein. So wird die Stromversorgung billiger. Aber was macht die NASA? Ihr Statement lautet ohne Umschreibungen etwa so: "Nun buttern wir 10 Millionen Dollar pro Jahr in die Plutoniumgewinnung, dann haben wir bis 2019 genügend Material für einen GPHS-RTG, da brauchen wir keine neue Technologie".

Eine andere Sache ist die Mission ST-8, ST steht für Space Technology und es ist eine Mission zur Erprobung von neuen Technologien. Darunter befinden sich tolle Sachen wie Solar-Concentrator Arrays mit einer Leistung von 300 W/kg, die Erprobung von FPGA als Ersatz für Prozessoren, da die Entwicklungskosten weltraumtauglicher Prozessen immer teurer wird, die Stückzahlen aber gleich bleiben. Beides interessante Weiterentwicklungen. SLA ermöglichen leichte Solararrays, wichtig für Missionen ins äußere Sonnensystem, dort würden sie durch die Linsen auch den Abfall der Leistung durch niedrige Temperaturen absenken. Daneben (und deswegen bin ich drauf gestoßen) auch für ionenantriebe, die um so mehr Nutzlast tragen können (bzw. schneller am Ziel sind) je leichter die Solararrays sind.

Was für Arrays hat Juno? Normale mit besonders getesteten GaAs Zellen. Zum Schutz noch mit einer dünnen Glasschicht bedeckt. Sie sind sogar schwerer als die von Dawn und die startete ja schon vor 6 Jahren. Dabei geht es anders, wie die Ultraflex Arrays von Phoenix beweist. Diese erreichen 180 W/m², die von Juno liegen bei 57 W/m² (Dawn: 80 W/m²).

Beides sind Beispiele dafür, wie die NASA auf alte Technologien setzt. Man muss nicht alles neu entwickeln, so finde ich die Idee bei Juno nicht strahlungsresistente Elektronik zu entwickeln, sondern einfach alles in eine Schachtel aus Titan zu packen die dann abschirmt gut, so was habe ich nämlich im kleinen (nur für den Bordcomputer) auch vorgeschlagen. Denn besondere Elektronik würde eben nur Juno und sonst keine weitere Sonde in absehbarer Zeit benötigen. Aber man sollte die Technologien entwickeln um zukünftige Missionen besser durchführen zu können, also entweder billiger oder schneller oder mehr Daten zu gewinnen. Dazu gehören leistungsfähigere RTG und Solarzellen. Dazu gehört auch die Nutzung des Ka-Bandes. Seit gut 10 Jahren wird das getestet, aber es ersetzt nicht oder ergänzt auch nur das X-Band. Dabei zeigen die bisherigen Tests z.B. mit dem MRO, dass die Datenrate erheblich höher, selbst unter Berücksichtigung der stärkeren Signalabschwächung und der geringeren Verfügbarkeit. Was man bracht ist nur angepasste Kommunikationsstrategien, da es sein kann, dass man die Daten nochmals wegen schlechtem Wetter übertragen muss.  Auch Juno sendet nur im X-Band. der Ka-Band Sender wird nur zur Durchleuchtung des Jupiters genutzt.

Ähnliches zeigt sich im Missionsdesign. Man startet mit chemischen Triebwerk oder macht Vorbeiflüge an der Erde um Geschwindigkeit zu gewinnen, gefolgt von einigen Korrekturmanövern. Ionentriebwerke wurden nur zweimal bei Deep Space 1 und Dawn eingesetzt und beide Sonden starteten zuerst mal chemisch auf eine Fluchtbahn, was die Nutzlast schon auf ein Drittel reduziert. Die Frage ist, warum man nicht gleich vom LEO heraufspiralt. Das würde einigermaßen fix schon mit heute verfügbaren Solararrays gehen und gerade Juno zeigt, dass man mit dem üblichen "Gespenst" des Van Allen Gpürtels keine Gefahren verbunden sind. Jupiters Strahlengürtel ist da eine ganz andere Dimension. Trotzdem überstehen dort die Solararrays es - 100 Mrad werden schon von 0,3 mm Glas auf 3 MRad reduziert. Das bewirkt eine Reduktion der Effizienz in einem Jahr um 9,4%. Ein Jahr wird keine Raumsonde im Van Allen Gürtel sein. Und dort beträgt die Dosis im Mittel 0,7 bis 1,5 mSi/Tag, das sind 0,07 bis 0,15 rad pro Tag. 100 MRad die Juno erhält, sind 100 Millionen Rad... Selbst strahlengehärtete Elektronik verträgt heute 10 bis 100 kRad. Kein Wunder denn der GEO-Orbit liegt ja noch im äußeren Van Allen Gürtel. Die Frage ist also, warum man nicht gleich einen Schritt weiter geht und gleich vom LEO-Orbit aus startet und so Kosten spart. Bei Missionen ins äußere Sonnensystem kann man auch die sonst überschüssige Leistung brauchen - siehe Juno.

Was fehlt ist das Wagnis, neue Wege zu gehen. Neue Technologien zuerst zu erproben (wie bei den Space Technologie Missionen oder indem man sie zusätzlich bei vorhandenen Sonden einsetzt (Ka-Band, ASRG). aber dann auch sie bei neuen Sonden im Routinebetrieb einsetzt. Was bisher läuft ist "das haben wir schon immer so gemacht, warum was ändern?". Das bedeutet auch, gerade im äußeren Sonnensystem wo man viele dieser Technologien braucht (ASRG um die kosten für Stromversorgung zu senken, SLA um eine größere Nutzlast mit Ionentreibwerken zu transportieren / als weiter Stromversorgung, Ka-Band für höhere Datenraten, die sonst wegen der großen Entfernung stark abnehmen) wird es daher nur wenige neue Sonden geben. So bleiben sie teuer und selten. So wird die NASA mit ihrem neuen Programm das 10 Millionen Dollar pro Jahr kostet bis 2019, also in 6-7 Jahren, gerade mal so viel Plutonium zusammenbekommen wie man für einen GPHS (285 Watt Leistung) braucht. Davon hatte Cassini drei und Galileo zwei an Bord. Zusammen mit 10 kg die man braucht und einem MMRTG der für den Curiosity Nachfolger benötigt wird sind dass dann zwei GPHS mit 470 Watt Leistung. Die vorhandenen 10 kg würden mit ARTG dagegen für eine Leistung von 1300 bis 1400 W reichen und man hätte 70 Millionen Dollar gespart.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99