Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 416: 27.2.2015 - 4.3.2015

27.2.2015: Intel bekommt Konkurrenz

Intel konnte sich fast ein Jahrzehnt ausruhen: Mit der Core-Mikroarchitektur hatte man 2006/7 den Erzrivalen AMD abgehängt. Dessen Marktanteil schrumpft seitdem laufend. Gleichzeitig gelang es durch immer stromsparende Prozessoren auch einen Fuß ins Segment der leichten Mobilgeräte zu fassen. Es gibt inzwischen Smartphones mit x86-Prozessoren und bei den Tabletts dominiert Intel sogar. Die Firma ruht sich nicht aus. Die derzeit in 14 nm gefertigten Broadwell-Prozessoren sind noch stromsparender als die 22 nm Generation und die nächste Generatio Skylake wird da sicher nicht schlechter sein. Inzwischen wildert Intel mit dem Galileo und Edison sogar im Arduino Markt. Kurzum: es läuft gut, die Umsätze sind konstant hoch und vor einem Quartal konnte man sogar den 15 Jahre alten Umsatzrekord brechen.

Doch immer wenn es toll läuft, gibt es Konkurrenten die auch ein Stück vom Kuchen abhaben wollen und in den letzten Monaten gab es zwei Ankündigungen die das Zeug haben, Intel in einigen Segmenten Marktanteile abzujagen. Die erste war die Ankündigung von ARM für einen Serverprozessor. ARM ist kein Prozessorhersteller, sondern entwickelt Prozessordesigns, die es dann an Hardwarehersteller verkauft, die diese dann meistens noch spezifisch anpassen z.B. bei Handys den Sende-/Empfangsteil an die verwendete Funkfrequenz und Kodierungsstandard anpassen. ARM bietet mehrere Generationen an, in 32- oder 64 Bit Architektur und mit Taktfrequenzen von einigen Zehn bis über 1000 MHz, die von dem einfachen Mikrocontroller für integrierte Geräte bis hin zum Tablett-PC Prozessor alles abdecken. Selbst Intel war einmal ARM Lizenznehmer und fertigte die XScale Prozessoren, das war zu einer Zeit als man selbst keine entsprechend stromsparenden Prozessoren im Portfolio hatte.

ARM hat einige besonders leistungsfähige Prozessoren schon füer den Servermarkt positioniert. Bisher hat er aber wenig Erfolg gehabt. Der Hauptvorteil der ARM-Architektur ist dass sie viel stärker aufs Stromsparen ausgelegt ist als Intels Prozessoren, besonders die Serverprozessoren der Xeon Linie. Die Leistung hinkt dagegen deutlich den Xeons hinterher. In einem kompletten Server in dem auch Speicher, Chipsatz, Festplatte Strom schlucken, ist der Vorteil deutlich geringer und in der Disziplin Rechenleistung/Watt konnte ARM nicht gegen Intel bestehen. Es gab einige Erfolge, die vor allem darauf beruhten, dass man mehr Prozessoren in eine Höheneinheit packen konnte und so pro Volumen mehr Rechenleistung erhielt, da man keine oder nur eine pasivre Kühlung brauchte.

Nun gibt es einen zweiten Anlauf. ARM bringt eine neue Architektur auf den Markt die nur zum Teil auf der bisherigen ARM-Architektur beruht. Diese wurde in den frühen Achtzigern entwickelt und war ursprünglich eine 32-Bit-Architektur, inzwischen gibt es auch einen 64 Bit Ableger. Der Befehlssatz wurde erweitert, doch im Prinzip könnte man immer noch die alten Programme aus den Achtzigern ausführen. Die neue setzt dies letzte ARM V8 Version ein, aber führt eine neue (Web-ARM, WARM genannt) zusätzlich ein, die nur 16 Bit Breite hat. Sie nutzt eine Untermenge der ARM-Befehle, führt aber neue ein, für die Verarbeitung von 8 und 16 Bit breiten Daten. Besonders auffällig sind die Stringbefehle, die man auch von der x86-Architektur kennt. ARM kannte als RISC-Architektur solche Spezialbefehle nicht. Die neue WARM Architektur verfügt dagegen über Befehle um Speicherblöcke zu kopieren, mit einem Wert zu überschreiben und einen Speicherblock nach einem String zu durchsuchen. Für den Datentyp String wurde das C++-Standardlib Format genutzt (vor dem String zwei Referenzfeldern mit Länge und Referenzzähler, nicht Nullterminiert).

ARM will den größten Teil des Servermarktes anpeilen, das sind nicht Server die in Rechenzentren viel rechnen, sondern die Webserver, Internetknoten, aber auch die Server von großen Internetanbietern und Suchmaschinenbetreiber. Für das Design will ARM z.B. Google, Facebook, Apple und Amazon konsultiert haben. 80% des Rechenzeit ihrer Server, das hat Google veröffentlich entfällt auf die Verarbeitung von Byte und 16-Bit Werten, vor allem Stringoperationen wie Verketten, Durchsuchen, Kopieren. Ein ähnliches Bild gilt bei Webservern, dei statische HTML-Seiten ausliefern aber auch bei aktiven Seiten dominieren Datenbankabfragen, die letztendlich auch Stringverarbeitung bedeuten. Daher hat man die Architektur auf Unicode (16-Bit Breite) und Zeichenkettenverarbeitung optimiert. Da im englischsprachigen Bereich aber auch noch die Byteweise Verarbeitung dominiert beherrscht der Prozessor auch dies. Die Adressierung erfolgt byteweise.

Doch damit alleine kann man sicher keinen Blumentopf gewinnen. Daher setzt ARM auf das schon verfügbare Big-Little Konzept. Dieses wurde für Mobilgeräte entworfen, um deren Batterielebensdauer zu erhöhen. Es wird ein sehr leistungsfähiger Kern mit einem weniger leistungsfähigeren kombiniert. Der erstere, mehr stromverbrauchende, kann bei geringer Last (z.B. telefonieren, MP3 Anhören komplett abgeschaltet werden. Wird er benötigt (Videos anschauen, Spielen) so kann er aktiviert werden. Hier kombiniert ARM allerdings einen 32 oder 64 Bit ARM Kern der neuesten Generation (v8) mit dem WARM (Web-ARM) 16 Bit Kern. Ein Die zerfällt in 4 Sektoren, die jeweils einen 64-Bit, zwei 32-Bit oder acht 16-Bit Kerne aufnehmen können. Der Hersteller kann so die Rechenleistung anpassen zwischen hoher Fließkomma und 32-Bit Integerperformance oder der schnellen Verarbeitung von Strings. Jede Sektion hat eigene Caches. Bei der WARM Sektion hat jeder Kern einen 32 KByte großen Codecache und einen gemeinsamen 2 MByte großen Datencache. Die Taktfrequenz ist auch unterschiedlich hoch. die WARM Kerne arbeiten mit 666, 800 oder 1066 MHz, den Standardfrequenzen für DDR3-RAM. Jede Sektion kann zwei DDR3- Kanäle ansprechen, zusammen bei vier Sektionen also acht. Die ARM-V8 Kerne sind höher getaktet und laufen mit 1,5 oder zweifachem Taktmultiplikator.

Was neu erstellt werden muss ist sie Software. Der Befehlssatz der ARM-Architektur wurde um zwei Befehle erweitert die den Beginn von Codeblöcken für den WARM-Teil und dessen Ende signalisieren. Mindestens ein konventioneller ARM-Kern muss im Die vorhanden sein, da er aktiv ist wenn der Rechner startet. er beinhaltet auch den Cachecontroller der jeweils in die Caches die Codesgemente lädt die zu dem jeweiligen Befehlssatz gehören.

ARM rechnet aufgrund der bisherigen Zusammenarbeit mit vielen Firmen damit einen signifikanten Anteil des Servermarktes zu erobern. Samsung und Qualcomm wollen im Frühling ernste Muster der WARM-Architektur ausliefern.

Deutlich weniger weiß man von dem neuen Kooperationsprojekt von NVidia und Via. Via hat Centaur Technologies übernommen, den einzigen X86-Konkurrenten der nach AMD noch verblieben ist. Ihr Via Namo Prozessor konnte sich jedoch mangels Rechenleistung nie durchsetzen. Auch der neueste Chip, der Via Eden ist nicht der große Renner. NVidia fertigt dagegen Grafikkarten deren pure Rechenleistung um ein vielfaches höher ist als die der leistungsfähigsten Intel-Prozessoren, deren Programmierung aber schwierig ist und besondere Bibliotheken benötigt. Via und NVidia wollen Ende des Jahres einen Prozessor vorstellen, der beides verbindet. Intern weist er sich als x86 Prozessor aus, intern verwendet er aber vom Via Eden nur die Bus-Interfache Unit, Speicherverwaltung und angehängte Einheiten wie den Prefetch. Der Befehlsdekoder übersetzt die x86-Befehle dagegen in Bündel von einfachen befehlen für die integrierte GPU welche die komplette Verarbeitung übernimmt. Deren Zahl ist hje nach Geschwindigkeit variabel. Das kleinste Modell hat 64 Einheiten, bis zu 1024 sollen in der ersten Generation möglich sein. Schon mit 64 Einheiten ist die noch namenlose CPU-GPU schneller als eine 6-Kern Core I7 CPU. Bei mehr als 256 Einheiten wil man auch die schnellsten Xeon CPUs abgehängt haben. Anvisierter Markt ist der von PCs, Notebooks, Tabletts. Hervorgehoben ist die breite Skalierbarkeit des Konzeptes. Anders eine zugesteckte Grafikkarte soll die neue CPU (noch ohne Namen) mehr Leistung auch in Alltagsaufgaben bringen.

Ob dies klappt wird sich zeigen, bisher konnte Via nämlich alle Performanceversprechen ihrer Chips nicht einlösen und die Programmierung von Grafikkarten-GPUs mit CUDA zeigte enorme Schwankungen in der nutzbaren Rechenleistung, stark abhängig vom Problem aber auch der Datenstruktur.

1.3.2015: Mal wieder Stratolaunch

Lange Zeit war es ja still um die Firma geworden. Wie die meisten "neuen" US-Raumfahrtfirmen gibt es kaum neue Nachrichten. Doch ich denke es ist durch zwei neue Nachrichten an der Zeit sich mit der Rakete nochmals zu beschäftigen.

Das erste was ich immer bezweifelte, war die ökonomische Sinnhaftigkeit des Konzeptes. Die Nutzlast sollte rund 6000 kg in einen niedrigen Erdorbit liegen. Das ist vergleichbar mit der Delta II, welche aufgegeben wurde, weil es zu wenige Nutzlasten gab um die Fixkosten zu rechtfertigen (mangels Alternative hat die NASA dann doch noch drei Exemplare bestellt) und es gab (zumindest als das Projekt anfing) ja noch die Alternative Antares (die wohl nun mit neuen Triebwerken genauso neu anfangen muss wie Stratolaunch). Virgin Galactic wird nun aber sowohl für OneWeb den Start von 700 Satelliten zu je 125 kg Gewicht durchführen, Virgin Galactic fertigt aber auch das Trägerflugzeug wie auch Spaceship Two. So gesehen bleibt dass Geld in der Kasse, man entwickelt also das Trägersystem mit einem Großauftrag. Nach Wikipedia sind in einer Orbitalebene 20 Satelliten, das wären dann wenn man eine Orbitalebene pro Start, bedient 35 Starts. Lohnen kann es sich schon.

Über die Rakete gab es lange Zeit auch nichts. Zuerst sollte sie von SpaceX gebaut werden und sah in den Videos aus, wie eine gekürzte Falcon 9 mit vier oder fünf Triebwerken. Dann trennte man sich von SpaceX. Offiziell, weil die Änderungen zu schwer in die Produktion einzubauen waren. Das glaube ich nicht, gibt sich die Firma doch sonst als so flexibel und innovativ. Da soll es schwierig sein ein paar Triebwerke wegzulassen und die Tanks zu kürzen? Schwer zu glauben. Meiner privaten Meinung nach hat man bei SpaceX erst mal jeden Auftrag angenommen egal wie profitabel und als man genügend Aufträge für die Falcon 9 hat eben das nicht so lukrative Geschäft mit Stratolaunch eingestellt. Schließlich hinkt man bei den schon vorhandenen Aufträgen schon hinterher.

Dann trat ATK an deren Stelle. Das hat mich zuerst verwundert, hat ATK doch keine Rakete im Portfolio, die passen würde. Die Antares hat zwar die richtige Nutzlast, aber warum sollte man die vom Flugzeug aus starten wenn's doch schon eine Startbasis gibt und sie passt auch nicht in der Länge zu der Rakete die man auf den Videos sieht. Zudem war zur Zeit der Selektion ja noch kein Ersatz für das NK-33 gefunden. Dann hat noch ATK jede Menge Feststoffbooster im Angebot, die aber entweder zu klein (größter "kleiner" Booster: Castor 120 mit 53 t Startmasse) oder zu groß (Shuttle SRB mit minimal 590 t Masse). Später erfuhr man, dass Stratolaunch RL-10 Triebwerke kauft, das bedeutet die Oberstufe wird Kryogen sein.

Das neueste Videos gibt nun einige Hinweise mehr. Zuerstmal ist de Rakete nun deutlich gedrungener, also das Verhältnis von Länge zu Durchmesser ist größer. Beim Video des Starts fällt auf, das erste und zweite Stufe nahezu gleich lange sind. Die zweite Stufe hat ein Triebwerke mit einer ausfahrbaren Düse, was für das RL-10B2 spricht, aber wahrscheinlich ist auch das neue RL-10C mit ausfahrbaren Düsen ausgestattet. Die erste Stufe hat wahrscheinlich nur eine Düse, genau ist das nicht zu erkennen. Nun bei dem genannten Durchmesser von 3,2 bis 3,7 m für die Rakete kann man im ATL-Portfolio nur ein Produkt findet, nämlich den RSRM mit 1 Segment der etwa 183 t wiegt. Das passt dann zu der kurzen Stufe und der Startmasse von 485.000 Pfund (219,7 t). Die RL-10 können dann die mangelnde Performance den Antriebs (niedriger spezifischer Impuls und hohe Leermasse) ausgleichen. Netterweise sind sie auch wiederzündbar, was es erleichtert die hohen Umlaufbahnen von Oneweb (1200 km) ohne dritte Stufe zu erreichen. Es ist zu erwarten, dass ATK die Booster aufrüstet, z.B. CFK-Werkstoffe anstatt Stahl nimmt, damit einen höheren brennkammerdruck erlaubt und auf HTPB als Binder umstellt. So was plant die Firma ja auch für die größeren Booster der Block-II SLS, bei der sie sich gerade bei der NASA bewirbt.

Dann ist Leonhard Nimoy gestorben. Von der ursprünglichen Star-Trek Besetzung sind nun mehr Schauspieler tot als lebendig. "Spok" war als ich die Serie zum ersten Mal sah meine Lieblingsfigur. Später avancierte Scotty dazu, auch weil ich mich in den Anforderungen Kirk: "Der Antrieb muss in & Stunden zur Verfügung stehen!"  Scotty: "Aber Captain, der Anbtrieb ist durchgeschmort, dafür brauchen wir mindestens 24 Stunden!" in meinem beruflichen Alltag oft wiederfand. Inzwischen werde ich jeden Tag an StarTrek erinnert: durch die Werbung. In der "Original"-Serie befragte die Mannschaft den Computer der dann antwortete: Ein Mensch sprach bewusst abgehakt. Das war schon damals unergonomisch, (man kann schneller lesen als sprechen und zuhören, daneben kann man etwas nochmal lesen wie z.B. Angaben über Entfernungen nochmals lesen oder einfacher aktualisieren) . Folgerichtig wurde in der Verfilmung und den nächsten Serien auch alles grafisch oder als Text dargestellt und man hat es persifliert: In Galaxy Quest ist es die einzige Aufgabe eines blonden Besatzungsmitglieds den Computer zu befragen und die antworten nochmals wiederzugeben.

Heute macht Google Werbung in denen man Google befragen kann. In Zeiten in denen die viele Internet übers Telefon nutzen ohne Tastatur ist das sogar nützlich. Ich glaube als nächste StarTrek "Erfundung2 wird es das Holodeck geben. Mit einer 3D-Brille würde es wahrscheinlich heute schon gehen.

3.3.2015: Nachlese "All-Electric" Satellites

Nachdem sie nun gestern gestartet sind, die ersten dieser Exemplare, will ich heute mal zusammenfassen was man über sie weiß. Es ist leider immer noch sehr wenig. Aber beginnen wir zuerst mal mit den Grundlagen. (Eigentlich steht ja alles in der Webseite, aber die Leute sind ja meist zu Faul die Suchfunktion zu benutzen....)

Bei einem "normalen" Kommunikationssatelliten transportiert die Trägerrakete den Satelliten in einen Übergangsorbit, idealerweise mit einem sehr niedrigen erdnahen Punkt (etwa 200 km Höhe) und dem Zielpunkt in 36000 km Höhe. Dort angekommen, zündet der Satellit mehrmals beim Durchlaufen des Apogäums den Antrieb um zu Beschleunigen (Das Perigäum anzuheben) und die anfängliche Neigung der Bahn zum Äquator abzubauen. Dafür benötigt er mindestens 1500 m/s, wenn er eine Bahn mit dem Breitengrad des Äquators als Anfangsbahn hat, beim Breitengrad von Cape Canaveral sind es schon 1800-1900 m/s und bei Baikonur 2600 m/s. Man kann von dem Standard-GTO abweichen um diesen Geschwindigkeitsbedarf zu erniedrigen, so auch bei diesem Start der in einen supersynchronen GTO mit einem Apogäum in 63000 km Höhe führt. Dabei braucht die Trägerrakete mehr Treibstoff, der Satellit später weniger.

Danach benötigt der Satellit noch Treibstoff um die Lage zu regeln, vor allem aber seine Bahn und die Position relativ zur Erdoberfläche aufrecht zu erhalten. Das sind zwar nur 40 bis 50 m/s pro Jahr, aber über 15 Jahre Lebensdauer ist dass dann auch fast der halbe Geschwindigkeitsbedarf den man braucht um den Orbit zu erreichen. Rechnet man beides zusammen, so braucht man mindestens die halbe Startmasse nur als Treibstoff, einige Satelliten bestehen sogar zu fast zwei Drittel als Treibstoff. Da man nicht nur den Treibstoff braucht, sondern er auch in Tanks steckt, vor allem man aber noch genügend Druckgas braucht das die großen Tanks auch zu Missionsende auf einen Mindestdruck von einigen Bar zu setzen, braucht man dann noch eine relativ schwere Helium-Hochdruckflasche. Man kann rechnen, dass zu der Treibstoffmasse noch ein Fünftel bis ein Sechstel der Treibstoffmasse als Trockenmasse hinzukommt, das bedeutet: Von 3 t Startmasse entfallen bei einem typischen Satelliten 2 t nur auf das Antriebssystem, die restliche Tonne ist dann die eigentliche "Nutzlast".

Es ist aus diesen Fakten klar, dass man durch das Einsparen von Treibstoff viel Gewicht einsparen kann. Ionentriebwerke haben typischerweise den zehnfachen spezifischen Impuls, was in diesem Geschwindigkeitsbereich grob geschätzt mit einer Reduktion der Treibstoffmasse auf ein Zehntel einhergeht. Dafür sind die Triebwerke schwerer, das Arbeitsmedium Xenon ist ein Gas und braucht eine Druckgasflasche die auch mehr wiegt als die Tanks. Zuletzt muss man die Energie die in den Abgasen steckt erst mal erzeugen, braucht also eine leistungsfähige Stromversorgung. Trotzdem müssen die Triebwerke sehr lange arbeiten, das zeigen schon die Leistungsdaten. Das Airbus Triebwerk RIT-10 hat einen Strombedarf von 4,5 KW liefert aber nur 0,15 N Schub. Chemische Lageregelungstriebwerke haben typisch 10 - 22 N Schub, Antriebe sogar 400-500 N. Das bedeutet: um den Antriebsmotor zu ersetzen, muss das Triebwerk mehrere Tausendmal Mal länger arbeiten. So kommt man auf die langen Betriebszeiten von mehreren Monaten.

Soweit die Grundlagen. Nun zum konkreten. Als Gefahr wird immer der Van Allen Gürtel angeführt, der bei jedem Umlauf zweimal durchquert wird. Er soll Solarzellen schädigen und die Elektronik auch. Der im Übergangsorbit gestrandete Satellit Hipparcos arbeitete 5 Jahre lang in diesem Orbit bis er durch elektronische Defekte ausfiel - das ist etwa zehnmal länger als die Betriebszeit der All-Electric Satellites, die noch dazu sich ja laufend höher spiralen, also nur einen Teil der Betriebsdauer in einem Orbit sind in dem sie die Gürtel durchqueren. Das Solarzellen geschädigt werden ist auch klar, allerdings brauchen diese Satelliten sowieso mehr Strom als normale, will man nicht zu lange warten bis sie ihre Endposition erreicht haben. Die Überschussleistung braucht man danach nicht mehr oder nur kurz für kurze Positionsänderungen. So kann man sie einkalkulieren und die Solarpanele vergrößern.

Die Überschussleistung kann man auch nutzen um den natürlichen Leistungsverlust im Orbit zu kompensieren, der auch später noch gegeben ist. Des weiteren ist es natürlich einfacher so die Lebensdauer zu verlängern, da nach dem Erreichen des Orbits man deutlich weniger Strom für die Ionentriebwerke braucht und der zusätzliche Gewichtsaufwand an Treibstoff nicht ins Gewicht fällt.

Nun zu dem was man weiß. Das erste was auffällt ist die Startmethode. Die beiden Satelliten wurden vom Hersteller miteinander verbunden, das ist sehr ungewöhnlich. Soweit ich weiß gab es zuvor nur einen Proton Start mit direkt verbundenen Kommunikationssatelliten und nach den Angaben von Arianespace wollen die meisten Kunden nicht ihre Satelliten auf anderen direkt verschraubt haben. Hier war es der Schlüssel das man überhaupt zwei Satelliten starten konnte, denn trotz Gewichtsreduktion wäre ein Start mit einer Doppelstartstruktur nicht möglich gewesen. Zum einen hat SpaceX keine verfügbar, zum anderen liegen die beiden Satelliten mit einer kombinierten Masse von 4196 kg Da wären sie mit einer Dopelstartvorrichtung in einem anderen, deutlich niedrigeren Orbit angekommen. Nur durch den Doppelstart waren die "All electric Satelliten" überhaupt attraktiv. Denn beim Einzelstart hätte man auch einen normalen Satelliten Starten können: Die Satelliten würden mit chemischen Treibstoff 8000 Pfund rund 3630 kg wiegen, und das ist eine typische Falcon 9 Einzelstartnutzlast. Es ging, weil beide vom selben Hersteller, Boeing stammten und sogar denselben Bus einsetzen.

Etwas verwundert hat mich die Bahn, denn es ist eine SSGTO Bahn. Die Satelliten werden in einer 410 x 63.000 x 27,9 Bahn abgesetzt. Machen SSGTO bei chemischen Treibstoff Sinn, so ist dies nicht mehr bei elektrischen Triebwerken so offensichtlich. Da das Triebwerk dauernd arbeitet, hebt es sowohl Apogäum wie Perigäum an. Ideal wäre also eine Bahn, die anfangs unterhalb des GEO liegt, da das Apogäum noch ansteigt, so wie hier bei Smart-1. Diese Sonde wurde auch in einem Standard-GTO ausgesetzt. Bei dem SSGTO wird man den erdfernsten Punkt immer weiter anheben, was nicht so erwünscht isst. Sinnvollerweise wird man den Satelliten dann drehen und in großer Höhe zuerst die Inklination abbauen um nicht die Umlaufbahn immer weiter auszuweiten, diese hohe Umlaufbahn muss später wieder unter Treibstoffverbrauch abgesenkt werden. Bahntechnisch sinnvoller wäre sicher eine Umlaufbahn mit einem höheren Perigäum und einem Apogäum unterhalb der GEO-Umlaufbahn. Dafür müsste aber die letzte Stufe der Falcon 9 nach einem Umlauf (etwa 10 Stunden) erneut zünden, das dürfte ihre Lebensdauer übersteigen.

Die 2200 und 2000 kg schweren Satelliten werden sechs und acht Monate brauchen, um ihre endgültige Position zu erreichen. Der schwerere Satellit braucht länger, er hat auch weniger Transponder (46 zu 48). Bei 2000 kg Gewicht, einer Geschwindigkeitsänderung um 2000 m/s braucht man einen Gesamtimpuls von rund 4 Millionen Newton (man kann die Gewichtsabnahme durch den verbrauchten Treibstoff vernachlässigen, auch weil die Geschwindigkeitsänderung nur eine Schätzung ist, denn klassische Hohmann Transfers liegen nicht mehr vor). Die XIPS Antriebe haben 4.500 Watt Leistung, einen Schub von 165 mN und einen spezifischen Impuls von 3500 s. Mehr als zwei wird man nicht betreiben können, um den Impuls aufbringen zu können würde man also 12,1 Millionen Sekunden Betriebszeit akkumulieren, rund 3367 Stunden oder 4,7 Monate. Die Differenz zu den 6 Monaten liegt an den Zeiten in denen die Solarpaneele nicht beschienen werden und Orbitteilen in denen ein Betrieb der Triebwerke nicht ratsam ist um den Orbit nicht weiter anzuheben.

Der große Gewinn ist bei diesen ersten Exemplaren aber nicht die eingesparten Startkosten - sie machen typisch nur 25 bis 33% der Projektkosten aus, bei dem Falcon 9 Start vielleicht sogar noch weniger. Es ist die durch den Treibstoff ermöglichte längere Lebensdauer. Anstatt 12 bis 15 Jahren wie sonst bei Kommunikationssatelliten üblich werden die Satelliten 22 Jahre arbeiten. Bei 46 bzw. $8 Transpondern die beim ABS 1,75 Millionen Dollar pro Stück und Jahr einbringen ist das viel Geld, denn man kann ananehmen das der Satellit wie andere auch nach 12 bis 15 Jahren abgeschrieben ist.

Es ist allerdings nur der erste Schritt. Viel sinnvoller wäre es die Satelliten gleich in einem hohen Orbit (>500 km) auszusetzen und gar nicht erst in einem GTO. Der Nutzen ist offensichtlich, denn in einen solchen Orbit sollte die Falcon 9 rund 10 bis 11 t anstatt 4 t transportieren können. Als Preis dürfte sich die Dauer im Zwischenorbit nochmals um den Faktor 2,5 erhöhen also auf über ein Jahr, wenn man nicht die Stromversorgung ausbaut. Das zeigt das es nur der Anfang sein kann. Derzeit sind es normale Satelliten mit einem anderen Antrieb. Will man es effizient machen, so muss man die Stromversorgung ausbauen um die Reisezeit zu reduzieren. Als zusatznutzen hat man dann auch im Orbit mehr Leistung die man für mehr oder stärkere Transponder nutzen kann. Richtige "All-Electric" Satelliten die vom LEO in den GEO in wenigen Monaten transferiert werden, werden drei bis viermal mehr Strom als heutige Satelliten haben - und damit kann man kleinere Endgeräte versorgen. Angesichts der Plänen für erdnahe Konstellationen denke ich werden die Betreiber von geostationären diesen nicht kampflos das Feld überlassen und mit der hohen Sendeleistung wäre so auch mobiles Internet möglich, wie es Oneweb und Co im niedrigen Orbit versprechen.

4.3.2015: Zwei neue. alte Bücher; die Gehirnleistung; unsere Stadtverwaltung

Dieser Tage sind zwei Bücher von mir neu erschienen bzw. auch nicht. Die Europa Rakete ist ein nahezu unveränderter Nachdruck der ersten Auflage. Der Unterschied ist der Preis: Es kostet nur noch 8 anstatt 10 Euro. Die neuen Druckkonditionen haben dazu geführt, dass ich nach und nach alle auslaufenden Verträge kündigen werde und die Bücher neu veröffentlichen, viele wie dieses unverändert, andere eventuell erweitert. Ich erhoffe mir von den neuen Konditionen die bei gleicher Marge es erlauben den Preis auf 70 bis 80% des originalen zu senken mehr Leser. Bei den ganz alten Verträgen ist auch ein Grund, dass die monatliche Gebühr wegfällt, die immerhin mittlerweile die Hälfte des Umsatzes im vierten Quartals ausmacht.

Das zweite Buch ist eine deutlich erweiterte Auflage, des ATV Buchs, die dritte und letzte. Hier ist der Preis mit 14,90 Euro gleich geblieben. Das Buch behandelt nun aber auch die weiteren ATV Flüge, die Pläne der ESA für das Orion Servicemodul und die Dragon und Cygnus. Dadurch ist der Umfang von 176 auf 240 Seiten gestiegen. Es wird, da es keine weiteren Einsätze des ATV mehr gibt auch die letzte Auflage sein.

Ansonsten gibt es wenig Neues von den anderen -Buch Plänen. Ich habe schon seit längerer Zeit eine Schreibblockade und komme kaum vorwärts. Trotzdem wird es in den nächsten Monaten eine Reihe von Neuauflagen geben, so für:

  • Europäische Trägerraketen 1 und 2
  • Internationale Trägerraketen
  • US-Trägerraketen
  • Was ist drin?
  • Was sie schon immer über Lebensmittel und Ernährung wissen wollten

In allen Fällen wird der neue Pries deutlich niedriger sein. Bei den US-Trägerraketen sinkt er z.B. von 55 auf 40 Euro.

Was ist drin wird weitgehend unverändert sein. Bei "Was sie schon immer über Lebensmittel und Ernährung wissen wollten" werde ich einige neue Fragen aufnehmen. Bei den Europäischen Trägerraketen 2 etwas über die Ariane 6, eventuell schmeiße ich die Ariane 5 ME dafür raus. Sehr unschlüssig bin ich bei den US-Trägerraketen. Änderungen gibt es wenige, dafür ist das Buch mit 684 Seiten an der Grenze die ein buch haben kann (700 Seiten) und wird beim Umformatieren doch sehr anfällig gegenüber willkürlich eingestreute Leerseiten. Die meiste Arbeit steht immer noch bei den internationalen Trägerraketen an, wo ich immer noch gleich weit bin wie im November - so auf Seite 40 von 400...

Dann fiel mir was auf: Ich höre ja immer den gleichen Radiosender - SWR1 (ich wäre wohl der ideale Konsument eiens Volksempfängers bei dem man ja auch nur einen Sender empfangen konnte) und da fiel mir auf, das ich die meisten Moderatorinnen an der Stimme erkenne, bei den meisten Moderatoren gelingt mir das nicht. Das erinnerte mich daran, dass ich irgendwo mal gelesen habe das wir als Europäer sehr gut europäische Gesichert auseinander halten können, uns aber sehr schwer tun bei anderen Rassen. Prompt wurde das auch in zwei Vorabendserien aufgegriffen: "Großstadtrevier" (Schwarze wurden illegal beschäftigt mit den Papieren ähnlich aussehender schwarzhäutiger Mitbürger) und "Unter Gaunern" (ein Chinesischer Agent wurde gegen einen chinesischen Musiker ausgetauscht). Ähnliches fiel mir auch bei meinen beiden schwarzen Katzen auf. Aus etwas größerer Entfernung konnte ich sie nur am Gang oder der Schwanzlänge unterscheiden, außer ich sah ihnen ins Gesicht. Sollte so etwas auch für Stimmen gelten? Also Spezialisiert sich unser Gehirn auf das was wichtig ist? Im täglichen Leben müssen wir vornehmlich Menschen unterscheiden die helle Haut haben, also klappt das mit Menschen aus Mitteleuropa gut, bei anderen Rassen eher schlecht und als Mann sind Frauen interessanter und man kann daher Frauenstimmen besser unterschieden als männliche? Also ganz unplausibel ist es nicht.

Dann habe ich einen neuen Personalausweis beantragt, der alte läuft in zwei Monaten ab. Es muss ja ein biometrischer sein. Da die Fotos alle wie Verbrecherfotos aussehen wollte ich eines selbst machen und fragte an, ob man nicht eines zur Prüfung einschicken kann ob es den Ansprüchen genügt. Nein das ginge nicht, nur als Foto, das würde dann beim Einscannen geprüft. Wunderbar - unsere Verwaltung ist also schon im 21-Jahrhundert angekommen (sie verlässt sich aber sonst sehr auf Computerdaten, auch wenn die falsch sind, was ich gerade bei der gleichen Gemeinde bei der Auseinandersetzung in den Zahlungen für Abwasser und den Einträgen im Grundbuchamt sehe). Bei der Behörde erteilte man mir dann die Auskunft über Bilder könnte "wasweisichnichtalles" auf die Rechner gelangen. Nun ja über Bilder eher nicht, aber wie schon gesagt unsere Verwaltung ist ja informationstechnisch echt fit. Immerhin konnte ich dem Finanzamt noch einen Schenkungsvertrag als Datei zumailen, das scheint nicht ganz so engstirnig zu sein wie die Stadtverwaltung. Das Zusenden war übrigens auch nur nötig weil die Stadtverwaltung Mist gebaut hat. So langsam frage ich mich ob ich einen Fehler machte als ich vor zwei Monaten einen Brief der mich zur Anmeldung des Wohnsitzes aufforderte (ich habe zeit meines Lebens meinen Wohnort nie gewechselt) beantwortete. Vielleicht wäre ich aus dem Raster rausgefallen und für die Verwaltung nicht mehr existent - denn mein Datensatz scheint da doch sehr durcheinander zu sein. Falsch zugeordnete Grundstücke, Rechnungen über schon bezahlte Wassergebühren, ich bin mal gespannt ob dann der neue Personalausweis noch auf mich ausgestellt ist ....

Ach ja, mein selbstgemachtes hat man akzeptiert. Einfach ein Fotos mit Selbstauslöser machen und die Vorschriften von dieser Webseite und dann mit dieser Software zurechtrücken bzw. Vergrößern/Verkleinern. Es muss auch ein Passbild sein, die Software kann dazu 8 Bilder auf einem 10 x 15 Foto erstellen, die man dann ausdrucken oder wie ich in einer Rossmann-Filiale drucken lassen kann. Schon 20 Euro für den Fotograf des Verbrecherfotos gespart.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99