Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 390: 30.6.2014 - 10.7.2014

30.6.2014: Es fehlt an Konkurrenz

Derzeit plane ich mir einen neuen PC anzuschaffen. Der letzte wird im November fünf Jahre alt und in den letzten Monaten häuften sich doch einige rätselhafte Blue Screens, meistens kurz nach dem Booten oder Aufwachen aus dem Ruhezustand. Nach fünf Jahren wollte ich ihn eh ersetzen. Zum ersten Mal seit 20 Jahren wird es einer mit einem Intel Prozessor sein. Seit 1995 habe ich aus verschiedenen Gründen AMD Prozessoren gehabt. 1995 wurde der 486DX-33 durch einen AMD DX4 100 abgelöst, weil er billiger als der Intel Chip war und man damals (lang ist es her) einfach nur den Prozessor im Sockel auswechseln konnte.

Der nächste war dann bewusst gekauft, ein AMD K6 mit 350 MHz. Der war langsamer als die Pentium II von Intel, aber mir ging damals die Vormachtstellung von Intel und Microsoft ziemlich auf den Geist. Das war auch ein Beweggrund beim nächsten Prozessor, ein AMD 1200, der aber nun in der Geschwindigkeit mit Intels Chips mithalten konnte. Der nächste, ein Athlon 3000 war schon schneller, weil Intel auf das falsche Pferd Pentium IV gesetzt hatte und der letzte ein Athlon 5050e, weil der Rechner energieeffizient und leise sein sollte.

Diesmal habe ich einen iCore i5 4670 ins Auge gefasst. Ich habe lange überlegt, aber leider hat Intel AMD in nahezu allen Belangen überholt. Die Chips sind nicht nur deutlich schneller, sie sind auch energiesparender. Das einzige womit AMD punkten kann, sind die integrierten GPU Einheiten. Aber sie sind gerade in der leistungsstärksten FX Serie nicht eingebaut und im Zweifelsfall reichen sie dann doch nicht für ein modernes Spiel. Da letzteres für mich nur optional ist, habe ich mich dann doch für den Haswell Prozessor entschlossen.

Es ist schade das Intel heute so keine echte Konkurrenz mehr hat. Das war nicht immer so. Alles fing 1980 an, als IBM den IBM PC bauen wollte. Um nicht von einem Hardwarehersteller abhängig zu sein bestand IBM darauf, dass Intel auch Lizenzen an "Second Source" Firmen vergab. (Schade das IBM als Hardwarehersteller nur die Abhängigkeit von der Hardware sah und den gleichen Schritt nicht bei der Software getan hat - die Folgen sind wohl kaum vorstellbar...)

Damals gab es 8086 Prozessoren von Harris, Siemens, Cyrix und AMD, die ein besonders günstiges Abkommen abschließen konnten das auch die Übernahme von Erweiterungen beinhaltete. Ab der 80386 Generation begann Intel keine Lizenzen mehr auszugeben. Nachbauten gab es trotzdem. Sie0 waren selten das neueste Modell, doch sie holten mehr aus dem alten heraus. So war AMD sehr erfolgreich mit einer 80386 Version mit 40 MHz Takt, von Intel bekam man maximal 33 MHz. Intel wollte lieber den neuen und teureren 486er Prozessor verkaufen. Aber es wurden immer weniger Firmen, denn die Investitionen wurden immer höher und Intel begann die Prozessoren in immer kürzeren Abständen vom Markt zu nehmen. Der 80486 erschien 1989, noch 1995, sechs Jahre später war er der Prozessor mit dem meisten Umsatz. Intel konnte auch durch Werbekampagnen die Zeit in der man mit einem Design Geld verdienen konnte, immer weiter reduzieren. Heute ist ein Prozessor nach einem Jahr schon veraltet. Da alle Firmen erst nachbauen bzw. durch Reengineering erst die Funktionsweise ergründen mussten um einen kompatiblen Prozessor erst zu entwerfen, verdrängte dies alle Firmen vom Markt - bis auf AMD die das Entwickler Team des Alpha Chips an Land gezogen hatten. Es entwickelte den Athlon mit vielen parallel arbeitenden Einheiten, der bald Intels Pentium 4 überflügeln konnten. Doch Intel konterte und sie hatten das Geld einen Misserfolg auszusitzen, wobei Misserfolg hieß, dass AMD einen Marktanteil von 30% erreichen konnte - existenzbedrohend ist das noch nicht. AMD konnte leider nicht an die Leistung des Athlons bei den nächsten Generationen anknüpfen und ihre Prozessoren sind Intels Exemplaren heute weit unterlegen und finden sich meist im Einstiegssegment.

Das ist schade, denn so kann sich auch Intel ausruhen. Die Firma hat 2005 noch versprochen dass alle 2 Jahre sich die Kennzahl verdoppeln würde, dann hätten wir heute 32 Kerner als Standardbausteine. Getan hat sich nichts, warum auch, wenn die Konkurrenz mit 8 Kernen nicht mal so schnell ist wie ein schneller Vierkerner von Intel? Abhilfe ist nicht in Sicht denn die Investitionskosten steigen für jede Prozessorgeneration und sie kommen nur bei hohen Stückzahlen herein. Das schreckt ab. Zudem kann man nun auch gutes Geld und vielleicht mehr im Markt der mobilen Geräte verdienen. Davon haben die Leute meist mehr als eines und sie nutzen es maximal zwei Jahre. Das generiert eine hohe Nachfrage. Hier versucht gerade Intel die ARM Chips anzugreifen - und ist in genau derselben Situation wie AMD im PC Markt. Ihre Chips sind nicht schneller, brauchen aber mehr Strom. Doch auch hier gilt: Konkurrenz belebt das Geschäft.

1.7.2014: Technologiesonde ST-9

Ich war mal wieder auf der Suche nach Neuigkeiten über die Technologiemission ST-8. ST-8 ist eine Erprobungsmission für neue Technologie (ST: Space Technologie). Mich interessiert sie, weil sie besonders leichtgewichtige Solararrays erproben sollte, deren Leistungsgewicht ich für meine Ionen Missionen nutze. Nun wäre es schon interessant, ob sie auch funktionieren, doch seit Jahren tut sich auf der Webseite nichts. So suchte ich nach Dokumenten und stellte fest, dass die NASA schon an der nächsten Mission arbeitet, der ST-9. Diese wird drei Technologien erproben:

Das erste ist relativ unwichtig. Die beiden letzteren Punkte sind jedoch sehr interessant. ST-9 soll in einem 400 km hohen Orbit ausgesetzt werden und dann durch den eigenen Antrieb diesen anheben, um die GPS Navigation in unterschiedlichen Höhen zu erproben. Dazu setzt es einen (fast) konventionellen Antrieb ein. Es ist ein LOX/LH2 antrieb, der nach den Kenndaten von Astrium stammt und bis auf das Zündsystem (elektrisch anstatt chemisch) identisch mit deren 300 N Triebwerk ist. Neu ist, dass zur Gewichtseinsparung der Treibstoff in Form von Wasser mitgeführt wird. Dies wird an Bord durch Elektrolyse gespalten und die Gase in zwei Druckgastanks zwischengelagert. Zwei 10 l Tanks mit einem Maximaldruck von 40 bar nehmen 71,4 g Wasserstoff und 571 g Sauerstoff auf. Das Triebwerk wird dann mit diesem Druckgas betrieben, wodurch ein Treibstofffördersystem entfällt. Ein Mindestdruck von 10 bar muss für den Betrieb der Brennkammer gewährleistet werden, sodass der Impuls pro Zündung begrenzt ist: Pro Betrieb können so maximal 500 g Treibstoff verbraucht werden, das ist bei dem geplanten Startgewicht der Sonde von 400 kg eine Geschwindigkeitsänderung von 5,2 m/s. Das Verfahren eignet sich also nicht für größere Bahnmanöver, aber sehr gut für das On-Station Keeping für das es später dann auch bei geostationären Satelliten eingesetzt werden soll. Dort wird es trotz der Druckgastanks erheblich Gewicht sparen, auch weil das Helium und die schweren Flaschen für die normalen Triebwerke entfallen kann. So sollen die Satelliten bei gleichem Treibstoff ein Drittel länger betrieben werden können.

Mit 500 W Leistung für die Elektrolyseanlage wird ST-9 rund 5 Stunden benötigen, um das Wasser für eine Triebwerkszündung zu spalten. 45,36 kg (100 lbs) Wasser sind an Bord, um diese zu spalten werden rund 450 Stunden gebraucht.

Das ist aber nur ein Aspekt, warum ST-9 so interessant ist, das zweite sind die semiadhäsiven Membranen. Das sind Membranen die mit Nanopartikeln behandelt wurden sodass sie Gase, Flüssigkeiten und Feststoffe auch im Vakuum fest an der Oberfläche binden. Beim Verflüssigen dringen sie in die Membran ein und können in einem Zwischenraum dann nicht mehr entweichen. Dieser besteht aus einem wasserbindenden Gewebe. Man nutzt dieses Material zum einen um den Wassertank auszukleiden und so zu verhindern, dass das Wasser eine Kugel im Vakuum formt, zum zweiten entfaltet die Sonde aber einen Schirm von 1,61 m Durchmesser der mit diesem Material ausgekleidet ist. Er wird unter die Düse gespannt und ist rund 0,9 m von ihr entfernt. Das Triebwerk zündet auf der Nachtseite der Erde, das Gewebe soll das bei der Verbrennung einstehende Wasser in Form von Eis auffangen und binden. An der beschienen Seite des Orbits wird das Wasser verflüssigt und da die Sonde sich mit 2 U/s dreht an den Rand des Schirms geleitet. Von dort leiten Kapillaren es wieder in den Wassertank.

Was erprobt wird ist also nicht weniger als ein System zum Treibstoffrecycling. Es wird nicht möglich sein, den ganzen Treibstoff aufzufangen, doch man rechnet damit im pessimistischen Fall mit einer Rückgewinnungsrate von 80%, wird den Treibstoff also fünfmal wiederverwenden zu können (die 45 l entsprechen also rund 227 kg Treibstoff), im optimistischen Fall sollen es sogar zehnmal sein. Auch die "Recyclingrate" wird ein Bestandteil des Erprobungsprograms von ST-9 sein. Erreicht man eine Rate von 85% so wird auch das GPS Experiment interessanter, weil die 45 l dann ausreichen die Sonde über den Orbit der GPS Satelliten hinaus zu befördern und man so feststellen kann ob man die Technik auch für Satelliten im Geo Orbit nutzen kann.

Langfristig könnte das System vielfältig ausgenutzt werden. Kommunikationssatelliten könnten sich aus dem Erdorbit in den GEO heraufspiralen, ohne Ionentriebwerke einzusetzen (aufgrund des niedrigeren spezifischen Impuls braucht man zehnmal weniger Zeit um die gleiche Geschwindigkeitsänderung durchzuführen, der Treibstoffverbrauch isst nahezu identisch). Raumsonden könnten mit viel weniger Treibstoff auskommen und aus einem elliptischen Anfangsorbit den kreisförmigen niedrigen Erdorbit erreichen. Erderkundungssatelliten könnten mit relativ wenig Treibstoff zum Verglühen gebracht werden, bisher ist das bei Umlaufbahnen in 700-800 km Höhe wegen des Treibstoffverbrauchs nicht möglich. An Bord der ISS installiert könnte man rund 6 t Treibstoff pro Jahr einsparen.

Nun der Wermutstropfen: ST-9 ist derzeit nur in der Konzeptionsphase. Ob und wenn ja wann die Sonde gebaut wird ist noch völlig offen, denn schon ST-8 steht seit 2006 am Abschluss der Phase B und hat keine Finanzierung für den eigentlichen Bau der Sonde und die Operation. Sollte die Sonde umgesetzt werden und auch so funktionieren, so würde sie sicher den Raumtransport ab den niedrigen Erdumlaufbahnen umkrempeln.

3.7.2014: Nichts hält so lange wie Provisorien

Was erwarten Sie, wenn eine Firma die in einem Markt dominant ist, aber ein Marktsegment bisher nicht besetzt hat, wenn sie in dieses vordringen will? Also nehmen wir mal an, Mercedes Benz will ein Elektroauto konstruieren. Was würde man von dem erwarten? Doch sicher, das es nicht nur teurer als schon existierende Modelle ist, sondern auch besser. Eine Firma, die seit 100 Jahren Automobile baut, wird es doch besser können als eine, die einfach handelsübliche Batterien zusammenlötet oder? Die Enttäuschung wäre wohl groß, wenn das Auto nur in einem kleinen Detail besser wäre, sonst aber nur teurer als jedes andere Auto auf dem Markt und es nicht mal von Daimler selbst stammt. Sicher würde der eine oder andere Mitbewerber sich einen Spaß machen und eine ganzseitige Seite in der Auto-Motor-Sport buchen mit der einzigen Botschaft "Herzlich Willkommen Daimler – ernsthaft".

Nun der eine, oder andere andere, wird spätestens jetzt wissen, worauf ich raus will. Es geht um den IBM PC. Ich habe, weil ich gerade viel über Computerarchitekturen lese, mir vorgenommen mal bei der x86 Reihe deren Hardwareevolution zu skizzieren. Da fing ich gestern an, mit dem 8086. Verglichen mit anderen 16 Bit Prozessoren, war seine Architektur doch arg beschränkt, wenige Register, die umständliche Segmentadressierung von nur 1 MByte Speicher. NS 16032 und MC68000 waren da schon andere Kaliber.

Als IBM Mitte 1980 an die Planung ihres IBM PC ging, gab es auf dem Markt zwei Prozessoren die schneller als der 8086 waren und auch mehr Speicher adressierten, zudem in der Programmierung einfacher waren. Das waren der MC 68000 und des NS 16032. Noch älter war der TMS 9900 und etwas abseits, weil die frühen Produktionsexemplare zahlreiche Fehler hatten, der in der Leistung ebenfalls bessere Zilog Z8000.  Mit Ausnahme des TMS 9900 der schon 1976 erschien, war keiner der Prozessoren breit eingesetzt worden. Sie waren zu neu und erst 1979/80 erschienen. (der TMS 9900 war im Ti 99/4 verbaut, einem Heimcomputer von Texas Instruments).

Welche Prozessoren würde man anstelle von IBM wohl untersuchen, wenn man aus Zeit- und Kostengründen keinen eigenen Prozessor einsetzen will? Nun aufgrund der Leistung würde man sich wohl zwischen dem MC 68000 und NS16032 entscheiden. Intel untersuchte den TMS 9900, Intel 8088 und MC 68000. Den MC 68000 haben sie nicht genommen, weil er damals neu war und es Probleme mit Kinderkrankheiten gab, welche die ein Jahr bzw. vier Jahre älteren anderen Chips nicht hatten. Das ist zumindest die offizielle Version. Den Autor erstaunt, warum der TMS 9900 in der Aufstellung dabei war. Dieser Chip ist älter, er kann nur 32 KWorte (64 kBytes) adressieren, hat eine sehr geradlinige Architektur aber diese sprach das RAM als Registersatz an, wodurch er schnelles RAM benötigte und auch deswegen nur mit 3 MHz Taktfrequenz gefertigt wurde. Erstaunlicherweise kam der TMS 9900 weiter in der Auswahl als der MC 68000, er unterlag letztendlich deswegen, dass man den Arbeitsspeicher nicht über 64 KByte RAM ausbauen konnte, da die ersten Rechner mit soviel RAM gerade erschwinglich wurden, wollte man kein Design, das keine Reserven für die Zukunft hatte. (obwohl IBM die ersten Rechner mit nur 16 KByte Speicher ausliefern wollte, Bill Gates konnte sie überzeugen ihnen wenigsten 64 KByte zu spendieren, sonst wären die MS DOS Verkäufe wohl 0 gewesen, weil es nicht in den Speicher gepasst hätte)

In allen anderen Belangen war der 8088 aber dem MC 68000 unterlegen - Geschwindigkeit, Adressbereich, Unkompliziertheit (keine Segmentregister) und Registerzahl. Alles war schlechter. Meiner persönlichen Meinung nach, ging es bei dem Rechner nur darum, dass da "16 Bit“ drauf stand, aber möglichst wenig Konkurrenz zu den größeren Rechnern zu haben. Ein MC 68000 wurde auch in der ersten Workstation Sun 1 eingebaut und die hatte die Hälfte der Rechenleistung einer VAX 11/780, immerhin ein Supermini an der Grenze zu den Großrechnern von IBM. Sonst hätte man wohl auch nicht ernstlich den TMS 9900 erwogen, der in Leistung und Adressbereich nicht besser als ein 8-Bitter war, aber eben als 16-Bitter galt.

Damit der Rechner nicht zu schnell war, nahm man auch nicht die verfügbare 8 MHz Version, sondern die 5-MHz-Version. Die taktete man nur mit 4,77 MHz, denn so konnte man das Signal aus dem NTSC-Takt für den Fernseheranschluss bei 14,3 MHz ableiten und sparte glatte 50 ct für einen Oszillator ein (der Rechner kostete im Handel 3500 Dollar). Und damit er auch nicht zu schnell wurde und man noch mehr sparen konnte, setzte man auch den 8088 ein, mit 8 Bit Datenbus. Damit um 40% langsamer als ein 8086, aber alle Peripheriebausteine der 8080 Serie konnten genutzt werden - seit 5 Jahren in der Produktion und damit billig.

Das ging dann so weiter. Kombinierte Text-/Grafikfähigkeiten gab es nicht. Entweder eine Karte für das Anzeigen von Text oder eine Grafikkarte (auf der der Text sehr pixelig aussah) oder zwei Monitore, (das war Multimonitorbetrieb 1981!)Auf dem Motherboard gab es keine Schnittstellen, die mussten per Karte nachgerüstet werden. Standard-Massenspeicher war in der Grundversion ein Kassettenrekorder. Disclaufwerke hatten keine höhere Kapazität als bei Konkurrenz und durch einen Bug im Betriebssystem konnte man auch nur eine von zwei Seiten beschreiben. Das Betriebssystem machte in der ersten Version auch nur wenig Nutzen vom Speicher, denn Programme waren im ".com“ Format auf 64 KByte Größe beschränkt - man hatte wohl CP/M zu perfekt inklusive der 8 Bit Beschränkungen abgekupfert.

Der Rechner war also nicht leistungsfähiger als andere verfügbare Modelle, er war nur erheblich teurerer. Ein gleich gut ausgestatteter Apple II oder CBM 80XX kosteten nur etwa die Hälfte. Der einzige Vorteil war, dass man den Rechner auf bis zu 256 KByte Speicher ausbauen konnte. Trotzdem reichten alleine die drei Buchstaben IBM aus, dass alle Erwartungen hinsichtlich Umsatzes und Gewinn weit übertroffen wurden. Der Rechner verdrängte sogar die wenigen anderen 16 Bit Rechner, die es schon gab und die besser ausgestattet waren wie den Victor Sirius vom Markt. Es bewahrheitete sich eine alte Weisheit im Einkauf: „Es ist noch niemand gefeuert worden, weil er IBM gekauft hat“.

Intel sah den 8086 als Provisorium, bis man den "Motorola Killer", einen 32 Bit Prozessor, der den MC 68000 in allen Belangen schlagen würde, fertiggestellt hatte - mit dem Provisorium leben wir noch heute und den Überlauf bei 1 MByte, den MS-DOS nutzte, um die 64 KByte oberhalb des eigentlichen Adressraums anzusprechen, das berüchtigte A20 Gate wurde erst 2009 aus den Prozessoren als Feature gestrichen, die MS-DOS Unterstützung erst mit Windows 7 ebenfalls 2009. Nichts ist so langlebig wie ein Provisorium ...

7.7.2014: Muss alles so teuer sein?

So, nach einigen bloglosen Tagen heute ein neuer Blog. mit viel einfach nichts wichtiges ein oder erwähnenswertes. Ich war nicht untätig und habe in dder reihe über das Innenleben der 80x86 Reihe die beiden nächsten Prozessoren 80286 und 80386 fertiggestellt.

Irgendwie habe ich den subjektiven Eindruck, dass in letzter Zeit Raumfahrtprojekte unverschämt teuer werden. Da hätten wir Exomars. Mal geplant als ein Rover in der Art der beiden MER (die damals rund 800 Millionen Dollar zusammen kosteten) Exomars war mal mit 600 Millionen Euro geplant, das für nur einen Rover, also schon signifikant teurer als die beiden MER. Okay, etwas "Lehrgeld" für die Entwicklung eines Landesystems muss man dazurechnen, doch in der Größe ist Exomars genauso ein Erstling für die ESA wie es die MER für die NASA war (Pathfinder als schuhkartongroßer Vorläufer kann man nicht mit den MER vergleichen). Inzwischen ist Exomars zu einem Zwei-Starts Projekt mit einem Atmosphärenorbiter und einem zweiten Lander mutiert und wird mindestens 1,2 Milliarden Euro kosten, dazu kommen noch Beiträge Russlands (Landesystem, zwei Proton Trägerraketen) und der USA (Experimente). Den Nutzen siehe ich nicht. Es gibt schon genug Raumsonden auf und um den Mars. Der Planet ist besser erforscht als alles andere. Ich würde mir für das Geld lieber eine Mission zum Saturn wünschen oder ein paar kleinere zur Venus. Eine Landesonde die Bilder macht oder ein noch höher auflösender Radarorbiter wären z.B. Missionen die ich für sinnvoller halte. Da Exomars aber seit er existiert Finanzierungsprobleme hat und auch laufend in die Zukunft verschoben wird (er sollte mal 2011/2103 starten...) würde ich das Projekt einstellen. Zumal derzeit es wieder eine Finanzierungslücke gibt.

Dann haben wir in Europa noch Ariane 6 und die ESC-B Oberstufe. Bei beiden verstehe ich nicht warum man so viel Geld braucht. Die ESC-B erfordert mindestens weitere 1200 Millionen Euro, dabei hat man für das Vinci schon mindestens 400 Millionen Euro ausgegeben. Zusammen also 1.600 Millionen Euro für eine Oberstufe, die gerade mal die Nutzlast um 1.500 kg steigert. Für die Ariane 6 sollen dann weitere 4 Milliarden fällig werden. Da sehe ich noch weniger den Finanzierungsbedarf. Die Ariane 6 besteht aus zwei Stufen: einem Feststoffbooster mit 125 t Treibstoff und einer Oberstufe mit dem Vinci Triebwerk. Da man eine neue Oberstufe ja mit der ESC-B entwickelt, warum dann noch mal eine? Vor allem, wenn ich für mein neuestes Buch mal die veröffentlichten Unterlagen der ESA durchlese, warum gelingt es bei der Ariane 6 Oberstufe einen Tank zu konstruieren der 32-36 t Treibstoff aufnimmt und weniger als 2.000 kg wiegt und bei der ESC-A sind es bei 14,9 t Treibstoff schon 2.200 kg? Das geht weiter, so komme ich in der summe auf eine Trockenmasse dieser Stufe bei 32-36 t Treibstoff von 4 t, bei der ESC-A sind es bei 28 t Treibstoff dagegen 6 t. Warum man nicht eine Stufe für beide Träger macht und sie bei der Ariane 5 eben entweder von der Nutzlastverkleidung mit umhüllt oder einen Übergang verwendet (ist ja auch bei der Ariane 6 vorgesehen verstehe ich nicht. Vor allem aber kostet es extra.(Meine Vermutung: mit deiser Oberstufe wäre Ariane 5 dann bei 14+ t GTO Nutzlast - so viel wie zwei Ariane 6 und dann wäre auch der Kostenvorteil nicht mehr in dem Maße gegeben)

Bleibt noch ein P135 Booster übrig. Das ist im Prinzip eine vergrößerte Variante der Vega Erststufe (88 zu 125 t Treibstoff) dafür soll man dann sechsmal mehr ausgeben als wie für die ganze Vega Entwicklung?

In den USA läuft es nicht besser.  Boeing hat einen Auftrag für zwei Zentralstufen der SLS über 2,8 Milliarden Dollar bekommen. Das wären also 1,4 Milliarden pro Stufe. Nun ich nehme an, das schließt Entwicklungsarbeiten mit ein, denn die wären sonst mit 1,66 Milliarden (nach diesem Bericht) vergleichsweise preiswert verglichen mit den Produktionskosten. Trotzdem, billig ist das nicht. Das sind auch nicht die SRB, die nach dem Bericht 1,19 Milliarden für zwei Sets, also vier Booster kosten. Wohlgemerkt: die 5,5 Segment Booster sind nichts anderes als Shuttle SRB die verlängert wurden und die auch schon ihre Erprobungstests hinter sich haben. Da fast 300 Millionen für einen Booster zu verlangen ist ganz schön happig.

Zuletzt ist dann da noch das JWST. Mit 5 Milliarden Dollar schon bei Entwicklungsbeginn nicht ganz billig, ist es inzwischen bei 8,7 Milliarden angekommen. Da verwundert mich die Preissteigerung eigentlich nicht. Das HST war schon in vielen Dingen enorm weiter entwickelt als alle vorherigen Weltraumteleskope, aber es war noch eine herkömmliche Konstruktion - mit starrem Tubus, leichtem, aber einteiligem und selbst stabilisiertem Hauptspiegel. Das JWST muss dagegen im Weltraum erst mal ihren Spiegel aus zig Einzelspiegeln zusammensetzen. Dazu wird es erst im Weltraum entfaltet. Ein Schutzschild, so groß wie ein Tennisplatz ebenso. Dabei muss es extrem leicht sein, trotz mehr als doppelt so großem Hauptspiegel darf es z.b. nur die Hälfte des HST wiegen. Die Frage ist ob man es auch braucht oder ob einem die Wissenschaft so viel wert ist.

Aber irgendwie haben die Raumfahrtbehörden trotz stagnierender Budgets offenbar genügend Geld - zumindest für die genannten Prestigeprojekte.

10.7.2014: Angara, GSLV Mark III und ISEE-3

So, nach kleinerer Pause (mir ist einfach nichts erwähnenswertes eingefallen, worüber ich scheiben könnte) heute ein gemischter Blog. Gestern hatte die Angara ihren Jungfernflug. Er soll erfolgreich gewesen sein. Doch viele Details gibt es nicht. Lediglich die geplanten Brennzeiten von URM und Block I. Für mich besonders ist, dass er suborbital verlief. Das verwundert doch etwas. Natürlich ist ein Jungfernflug riskanter und da startet man in vielen Fällen nur eine preiswerte Demonutzlast oder einfach nur Masse, an die letzte Stufe festgeschraubt. Aber das der erste Start einer Trägerrakete suborbital ist, das gab es lange nicht mehr. Wenn ich zurückdenke dann fallen mir die Saturn I Testflüge und die frühen Europa Tests ein, doch in beiden Fällen deswegen, weil keine Oberstufe mitgeführt wurde. Mit zwei Stufen hätte die Angara aber einen Orbit erreichen können, sogar mit 3,8 t Maximalnutzlast. Also warum führt man nicht etwas Ballast mit oder einige Cubesats. Die würden sich sicher über einen kostenlosen Start freuen, auch wenn er riskanter als sonst ist.

Immerhin: ich glaube den offiziellen Angaben, das der Start erfolgreich war, man kann das ja an der Telemetrie und Bahnvermessung auch so festmachen ob die Antriebe den Vorgaben genügen. Russland hat ja auch in der Vergangenheit Fehlstarts immer sofort eingeräumt und nicht wie ein Newcomer Orbits mit massiven Abweichungen vom Soll als "100% Mission Success" verkauft. Leider hat der Jungfernflug nichts an der sehr verbesserungsfähigen Informationslage über die Angara geändert. Das trifft auch auf die Sojus 1 (oder 2-1v) zu. Offenbar gibt es erst Angaben wenn man sie im Westen für bares Geld anbietet. Was auffällt ist das die Entwicklung teuer war. Spacenews spricht von 2,9 Milliarden Dollar. Das ist wenn man die bekannten Kosten russischer Träger und Missionen mit denen westlicher Gegenstücke vergleicht für Russland gelichbedeutend wie im Westen eine Ausgabe zwischen 7,5 und 10 Milliarden Dollar. Dabei ist neu nur die erste Stufe, die noch dazu querfinanziert von Südkorea war (nur das Triebwerk scheint eine Abwandlung des RD-191 zu sein mit etwas kleinerem Schub).

Ein zweiter suborbitaler Tests eines neuen Trägers steht auch noch an, das scheint jetzt also Mode zu werden (Tipp an SpaceX: einfach bei der Falcon Heavy nicht vorher sagen dass die Rakete einen Orbit erreicht soll, fällt sie ins Meer, dann war es eben ein suborbitaler Test...). Die GSLV Mark III hinkt wie die Angara ihrem Zeitplan hinterher und soll diesen Sommer auch suborbital getestet werden. die GSLV Mark II hatte aber bei den Testflügen einige Probleme, bis der letzte endlich ein voller Erfolg war. Da es immer ganz gut ist, erst mal die bestehenden Probleme zu lösen, bevor man was komplett neues entwickelt (und die GSLV Mark III wird mit ihren drei neuen Stufen ist was komplett neues) ist das ein guter Schachzug. Wenn er klappt ist mit der GSLV ein weiterer Akteur bei den GTO Transporten vorhanden. Sie hat eine etwas größere Nutzlast als eine Falcon 9. Bisher konnte Indien mit der PSLV einige Startaufträge ergattern, erst vor wenigen Tagen startete eine PSLV den französischen SPOT 7 Satelliten.

Was scheiterte, war der Versuch die Raumsonde ICE, ehemals der Satellit ISEE-3 wieder in einen Erdorbit umzulenken. Eine Projekt hatte über Crowdfunding 160.000 Dollar erhalten, die man brauchte um erst mal Sender und Empfänger für die Telemetrie anzuschaffen, denn das von ISEE-3 benutzte Frequenzband nutzt die NASA seit langem nicht mehr. Das Projekt hoffte, die Sonde unter Kontrolle zu bringen und sie dann vor dem Erdvorbeiflug mit den eigenen Triebwerken nahe am Mond vorbei zu lenken. Er hätte die Sonde abgebremst und sie wäre wieder ein Erdsatellit geworden. In ähnlicher Weise hat man sie schon auf eine Sonnenumlaufbahn befördert. Das Verändern der Spinrate und eine erste (von sechs Korrekturen) gelang auch, aber die am 8.7. geplanten weiteren Zündungen klappten nicht, damit dürfte das Projekt wohl gescheitert sein. Ich fand die Idee sowieso nicht besonders toll. ISEE wurde Ende der siebziger Jahre gestartet, schon damals nicht mit den allerdneuesten Instrumenten und ihre Datenübertragungsrate ist beschränkt, selbst im Erdorbit sind es nicht mehr als einige Kilobit/s. Der Nutzen ist heute sehr überschaubar, und es gibt ja einige leistungsfähigere Satelliten für diesen Zweck im Erdorbit wie z.B. die vier Cluster Satelliten.

12.7.2014: Raumfahrt-Quiz

Heute mal was ganz anderes. Quiz sind ja ganz in Mode, am besten die wo man nur wenige vorgegebene Antworten hat. Ich dachte mir, ich mache mal ein Raumfahrtquiz, wo jeder sein Wissen abchecken kann. Es gibt leichte Frage und schwere, bei einigen musste ich selbst nachgucken, also wer alle 20 richtig hat ist echt gut.

Ich habe mir einige (genau 20) Fragen überlegt, die jeder für sich im Stillen beantworten sollte. Und zwar ohne Google und andere Suchmaschinen. Übermorgen gibt es die Auflösung und ihr könnt checken wie fit ihr bei der Raumfahrt seid. Damit keiner petzt, das hat ja in der letzten Zeit zugenommen, sind die Kommentare auch diesmal ausnahmsweise für diesen Artikel gesperrt.

Frage 1: Welcher Raumflugkörper ist der von der Erde am weitesten entfernteste?

1: Pioneer 10

2: Voyager 1

3: Voyager 2

4: New Horizons

Frage 2: Welche Raumsonde hält den Überlebensrekord auf der Venusoberfläche

5: Pionee Venus

6: Venera 10

7: Venera 13

8: Vega 1

Frage 3: Welche der folgenden Treibstoffkombinationen hat den höchsten spezifischen Impuls:

9: LOX/LH2

1: LF2/LH2

2: LOX/LNG

3: LOX/RP-1

Frage 4: Welchen Rekord reklamierten die USA beim Start von SCORE

5: Höchster bisher erreichter Erdorbit

6: Erster Satellit mit Stromversorgung aus Solarzellen

7: Erster Einsatz von Computern im All

8: Größte und schwerste bisher gestartete Nutzlast

Frage 5: Wie lautet die ersten Worte des dritten Menschen bevor er auf der Mondoberfläche hüpfte:

9: Thats a small Step for me

1: Beautiful view. Magnificent desolation

2: Whoopie Man

3: I can see the Surveyor

Frage 6: In welcher Beziehung ist Skylab der ISS überlegen?

5: Sie wurde länger betrieben

6: Sie hatte mehr Raum

7: Sie war schwerer

8: Die Besatzungen nutzten mehr der der verfügbaren Zeit für Experimente

Frage 7: Was ist eine "Typ II Hohmannbahn" zu den Planeten?

9: eine Bahn bei der der Planet beim Durchlaufen eines halben Umlaufs erreicht wird

1: eine Bahn bei der der Planet erst nach Durchlaufen eines halben Umlaufs erreicht wird

2: eine Bahn bei der der Planet vor Durchlaufen eines halben Umlaufs erreicht wird

3: Eine Fluchtbahn aus dem Sonnensystem

Frage 8: Welchen Rekord kann John Young alleine für sich verbuchen?

5: Die meisten Flüge in einen Erdorbit

6: Flüge auf drei unterschiedlichen Raumschiffen

7: Die meisten Einsatze im Apolloprogramm

8: Die längste Zeit als Angestellter der NASA

Frage 9: Was war vor der ISS das hellste künstliche Objekt das sichtbar war:

9: Die Iridium Satelliten

1: Die Raumstation Mir

2: Der Satellit Echo 2

3: Die S-IVB Oberstufe der Apollo 9 Mission

Frage 10: Wie viel Mondgestein brachten die Apollomissionen zur Erde?

8: Etwa 400 kg

9: Etwa 300 kg

1: Etwa 500 kg

2: Etwa 200 kg

Frage 11: Was tat der Astronaut Ken Bowersox nach seinem Ausscheiden aus der NASA?

3: Er hält Vorträge über seine Missionen

4: Er wurde Vizepräsident bei SpaceX

5: Er wurde Mitglied des ASAP Panels für Sicherheit bei NASA Missionen

6: Er gründete eine eigene Firma und entwickelt derzeit den VASMIR Antrieb

Frage 12: Welche Raumsonde verließ zuerst das Erde/Mond System?

2: Pioneer 1

3: Pioneer 3

4: Venera 1

5: Luna 1

Frage 13: Welches war das größte künstliche Objekt das jemals ins All gemacht wurde:

6: Die ISS

7: Pageos 1

8: Cosmos 1

9: RAE A / RAE B

Frage 14: Welche Raumsonde landete als erstes auf dem Mars?

0: Mars 2

1: Mars 6

2: Viking 1

3: Mariner 9

Frage 15: Wenn eine zweistufige Rakete mit LOX/Kerosin etwa 3 t in eine Umlaufbahn bringt, wie hoch ist dann die Nutzlast wenn beide Stufen LOX/LH2 einsetzen?

4: etwa 7 t

5: etwa 2 t

6: etwa 10 t

7: etwa 3 t

Frage 16: Die bis jetzt erfolgreich gestartete Rakete mit der kleinsten Nutzlast ist:

2: Die Jupiter-C

3: Die Safir

4:die Black Arrow

5: Die Vanguard

Frage 17: Der erste Einsatz eines vollwertigen (frei programmierbaren) Bordcomputers war ...

1: Bei Viking 1

2: Bei Gemini

3: Bei Apollo

4: Bei OAO

Frage 18: Wie hieß die erste in Europa gebaute Raumsonde?

1: Giotto

2: Helios 1

3: Ulysses

4: SMART-1

Frage 19: Was war die Aufgabe der MIDAS Satelliten?

3: Anfertigen Infrarotaufnahmen zum finden neuer russischer Waffen

4:Fernaufklärung in Konkurrenz zum Corona System

5: Frühwarnung vor ICBM

6: Abhören des Funkverkehres im Ostblock

Frage 20: Wer war in den Sechzigern und siebziger Jahren der bedeutendste durchsprachige Raumfahrtautor (gemessen an den Veröffentlichungen)

3: Werner Büdeler

4: Günther Siefahrt

5:Jesco von Puttkamer

6: Harro Zimmer

Viel Glück beim Beantworten!


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99