Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 494: 12.3.2017 - 22.3.2017

12.3.2017: Das Ende des freien Fernsehens?

Am 29.3.2017 wird DVB-T abgeschaltet. Geht es nach der Meinung der ct'-Redakteure, so ist das der Tod des frei empfangbaren Fernsehens. Irgendwie werden sie nicht warm mit dem neuen Standard DVB-T2. Um mal die Fakten zu bringen: Seit 1.5.2016 werden einige Programme schon in DVB-T2 ausgestrahlt. Bei mir sind dies ZDF, ARD, Pro7, SAT1, RTL, VOX, Tele5. Ab dem 29.3.2017 werden alle Programme in DVB-T2 ausgestrahlt. Das sind dann vor allem zusätzlich die Dritten, die ARD/ZDF Spartenkanäle und insgesamt 14 private. DV-T2 hat einen neuen effizienteren Komprimieralgorithmus HEVC und es wird in Full-HD also 1920 x 1080 ausgestrahlt und das noch in 50 Bildern pro Sekunde (1080P50). Mehr Sender, eine höhere Auflösung, höher als „nur HD (1280 x 720) wie es derzeit Standard im Kabel und soweit ich weiß, auch bei Satelliten ist, und mehr Bilder pro Sekunde, also weniger Artefakte bei Laufschriften oder schnellen Bewegungen. Eigentlich so sollte man meinen wären damit alle zufrieden.

Nicht so zumindest zwei ct‘-Redakteure. Der Erste verfasste das Editional und regt sich auf, dass man nun nach 11 Jahren! Neue Settop-Boxen kaufen muss, um das Signal zu empfangen. Der Zweite meint, dass dies das Ende von frei empfangbarem Fernsehen ist, weil die „SD“ Inhalte verschwinden und die Privaten (wie auch beim Kabel und Satellit) die HD-Versionen nur gegen Bares herausrücken.

Ich dachte mir zuerst ich verfasse eine Mail an die beiden Redakteure, doch da ich sowieso etwas knapp an Themen bin, dachte ich mir eignet sich das auch gut als Blogthema.

Fangen wir mit dem Ersten an. Man braucht (neue) Set-top Boxen. Das hat nun eigentlich nichts mit dem DVB-T2 zu tun. Seit wir vom analogen ins Digitale Zeitalter umgestiegen sind, brauchen wir immer, wenn sich was ändert Zusatzhardware. Zu schnell ändern sich Algorithmen, mit denen die Inhalte kodiert werden, von eingeführter Verschlüsselung gar nicht erst zu reden. Seit 2001 gab es als wesentliche Algorithmen zuerst MPEG-2 (DVB-T), dann MPEG-4 (DivX, Xvid, H.263), es folgte H.264 (DVB-S2, Blueray) undn nun HEVC/ H.265 für DVB-T2. Da die vorhandene Hardware in die heute die Algorithmen nicht als Software, sondern Hardwaredecoder eingegossen ist die jeweils neuen nicht beherrschte war immer ein Neukauf fällig. Entweder als externe Box oder mit einem neuen Fernseher. Wer aber bisher nur DVB-T empfing also über Zimmerantenne der war seit 2006 also 11 Jahren um einen Neukauf herumgekommen.

Auch wer digitales Fernsehen aus dem Kabel empfangen wollte, brauchte für einen alten Röhrenfernseher eine Set-Top Box und wer Satellitenfernsehen empfing einen neuen Receiver. Bei dieser letzten Klientel, die sowieso immer eine Box brauchen, dürfte der Aufschrei daher geringer sein. Außerdem braucht nicht jeder eine Set-top Box. Mein 2015, also ein Jahr vor der Umstellung, gekaufter Fernseher empfängt DV-T2 nativ, allerdings nicht die privaten Programme, die für eine Übergangszeit zwar verschlüsselt sind, aber von zertifizierten Geräten ohne Abschluss eines Abos entschlüsselt werden können. Das ist nicht generalisierbar. Ein als Monitorersatz gekaufter 32-Zoll-Fernseher vom letzten März hat keinen DVB-T2 Tuner. Also Augen auf beim Fernseherkauf!

Vor allem finde ich die Argumentation doch etwas befremdlich. Ein Röhrenfernseher hat man, solange betrieben wie er tat oder sich die Bildqualität nicht verschlechterte. Ich habe in 30 Jahren genau zwei Stück gehabt. Da sich der Fernsehstandard seit 1967 nicht änderte, konnte ein neuer Fernseher nur mit mehr Diagonale punkten und da war bei 66 bis 70 cm schon aus Gewichtsgründen Schluss.

Heute kauft man einen Flatscreen-Fernseher viel häufiger. Der Hauptantrieb ist, dass die Fernseher mit großer Bildschirmdiagonale immer billiger werden. Heute sind 50-55 Zoll so billiger als 30 Zoll vor zehn Jahren. Damit einher gehen auch immer mehr technische Möglichkeiten. Die ersten Flatscreens hatten nur das HD-Lite mit 1366 x 768 Punkten, heute ist Full-HD als Standard schon am Aussterben und 3840 x 2160 die neue Auflösung. Fernseher ab 40 Zoll gibt es fast nur in dem neuen Format. Dem hinken die Inhalte hinterher. Außer bei DEB-T2 bekommt man nur HD-lite als Standardformat und selbst neue Produktionen werden nicht in Full-HD produziert. Stattdessen wird hochskaliert. Will man diese hohe Auflösung nutzen dann geht das nur mit Blue Ray Disks. Dazu kommen „erweiterte Funktionalitäten“. Ein Fernseher vor einigen Jahren konnte noch keine Mediathekinhalte wiedergeben, heute kann man mit ihnen auch im Internet surfen, wenn auch ziemlich umständlich. Kurzum: in wenigen Jahren werden wahrscheinlich auch die Fernseher die nur DVB-T können, bei den meisten ausgetauscht sein.

Das Zweite ist der vom zweiten Redakteur angesprochene Trend, dass die Privaten nun nur noch Programme für Kohle ansehbar machen. Der ist gegeben: „Private“ Sender kann man schon als „HD+“ über Satellit nur für Kohle empfangen und bei DVB-T2 wird das 69 Euro im Jahr kosten. Beim Kabel kosten die HD-Programme ebenfalls extra. Bei Unitymedia 10 Euro pro Monat. Klar der Trend ist da und auch andere prognostizieren, dass in wenigen Jahren (2023 läuft ein Rahmenvertrag aus) es die Privaten nur noch gegen Bares zu sehen gibt.

Meine Meinung: Juckt mich nicht. Ich sehe auch die Gefahr nicht das ich damit alleine bin. Seit 2009 gibt es HD+ über Satellit. Bis Ende 2016, also in über sieben Jahren hat man 2,1 Millionen Abonnenten gewonnen. Das sind aber gerade mal 11,8 % der 17,7 Millionen Nutzer von Satellitenfernsehen. Die anderen 88+ % sind also trotz riesiger Bildschirmdiagonalen mit den SD-Bildern zufrieden. Also bei mir sehen die beschissen aus. Wenn die Leute also trotz offensichtlicher Vorteile kaum HD-Fernsehen von den Privaten nutzen, was wird dann passieren, wenn dieses wegfällt?

Ich prognostiziere: Der Marktanteil der Privaten fällt. Ich schaue sie schon lange nicht mehr an. Der Knackpunkt ist die Werbung. Die ist im Laufe der Zeit immer länger geworden. Die 20% Werbungsanteil an der Sendezeit werden heute voll genutzt und eine Erweiterung auf 25% durch die EU ist in Sicht. Meine persönliche Beobachtung. Zuerst haben die Sender ihre Werbeblöcke synchronisiert. Damit kann der Zuschauer nicht mehr wegzappen kann, wenn er Werbung sieht, woanders läuft dann auch nur Werbung. Dann wurden die Werbungsblöcke immer länger, bis man das Maximum von 20% erreicht. Da begann bei mir der Ausstieg. Es fiel damit an, dass nun die Blöcke so lange waren, das die Zeit nicht nur reichte mal kurz aufs Klo zu gehen oder sich einen Kaffee aufzubrühen, sondern auch die Emails zu checken und dann blieb ich dabei hängen. Eine Zeit lang habe ich dann die Sendungen per Online TV-Rekorder runtergeladen und am Zweitmonitor angeschaut. Mittlerweile bin ich auch zu faul dazu und nutze die Mediatheken der Öffentlich-Rechtlichen. Die Medienangebote der Privaten sind mit dem Fernseher praktisch unbenutzbar (man sieht keine ganzen Folgen sondern nur Schnipsel) und am Computer nervt die Werbung noch mehr, da in Lautstärke nicht auf die Sendung angepasst.

Inzwischen ist es mit der Werbung noch schlimmer. Vor und nach der Werbung kommen nun noch einige Minuten mit „Eigenwerbung“ für Sendungen des eigenen Senders. Für mich ist das Werbung genauso wie jede andere auch, sie zählt aber nicht zu den erlaubten 20%. Dann gibt es direkt vor und nach dem unterbrochenen Teilen einen Spot, der nicht als Werbung zählt, weil es sich um „Produktionsunterstützung“ handelt. Dann heißt es der „Der Film am Freitag wird ihnen präsentiert von ….“. Zuletzt hat man die Blöcke extrem ungleichmäßig verteilt. Damit die Zuschauer an der Stange bleiben, ist es nun oft so das der erste Block relativ spät kommt. Die Erfahrung lehrt, das wenn man erst ein größeres Stück eines Films angesehen hat, man auch dran bleiben will. Dann folgen sie aber in kurzem Abstand und beim letzten Block kann es sein, das der erst 3 Minuten vor dem Ende des Films kommt.

Ich finde das höchst nervig und das was mich interessiert, finde ich sowieso nicht auf den Privaten. Früher habe ich allenfalls Spielfilme abends angesehen, inzwischen verzichte ich drauf. Die Fans von amerikanischen Fernsehserien sind wohl heute das Hauptpublikum und auch Hauptzielgruppe der Werbung. Ob die für diese Werbungsarie noch was extra zahlen? Ich glaube eher die greifen dann gleich zu den Originalen. Zumindest meine Nichten und Neffen, die etwa eine Generation jünger sind, legen auch Wert auf die Originale auch und besonders wegen der Originalsprache und natürlich, weil man sie so viel früher hat. Wenn heute schon die Leute nicht bereit sind, für HD-Inhalte zusätzlich zu zahlen und mit SD-Signalen, die schon auf mittleren Diagonalen vermatscht aussehen, zufrieden sind, was wird wohl passieren, wenn man HD nur noch per Bares bekommt? Die meisten werden schlicht und einfach nicht mitziehen und das setzt eine Spirale in Gang: Die Einnahmen aus Werbung hängen von den erreichten Zuschauern ab. Sinkt die Zahl, sinken die Einnahmen und damit auch die Möglichkeiten attraktive, aber teuere Dinge einzukaufen (selbst produziert wird bei den Privaten ja eher einfache Kost) und damit wird es noch uninteressanter. Insbesondere dürften wenige Satellitennutzer meiner Ansicht nach umsteigen. Der Hauptvorteil von Satellitenempfang ist, dass der Empfang umsonst ist. Ansonsten hat man nur Nachteile. Der Empfang kann durch Wetter beeinträchtigt sein, man muss selbst die Antenne justieren und die Anlage kostet auch etwas. Wer also heute schon nicht bereit ist für den Empfang dauerhaft zu bezahlen (sonst könnte er auch Kabel nehmen das verschandelt auch nicht den Eindruck des Hauses) der wird wohl kaum nun auf Angebote ausweichen, die kosten. Mit 79 Euro für das HD+ Paket mit CI-Modul ist man schon bei der Hälfte der Kosten eines Kabelvertrags bei Kabel Deutschland, bei dem die HD-Sender mit drin sind.

Damit kein Missverständnis aufkommt: ich will nicht sagen, dass das öffentlich-rechtliche Fernsehen besser geworden ist. Fernsehen ist in den letzten Jahrzehnten überall schlechter geworden. Für mich ist das Privatfernsehen immer nerviger geworden. Die öffentlich rechtlichen haben andere Probleme. Sie pflastern die Sendeprogramme mit immer dem gleichem Schema voll. Zur Spätabendzeit laufen im Ersten und Zweiten z. B. fast nur Krimis, im Ersten dann noch Quizshows, nachmittags entweder Telenovelas oder Kochshows. Wer interessante ausländische Serien oder Filme sehen will, muss auf die Spartenkanäle wie ZDF Neo oder One ausweichen. Doch das ist ein anderes Blogthema.

Für mich ist DVB-T2 nur positiv: ich hatte, nachdem meine Mutter 2015 starb, den Kabelvertrag gekündigt. Über 200 Euro, nur für Fernsehen zu zahlen, war mir zu teuer, zumal ich von den vielen Programmen nur wenige anschaue. Ich bin auf DVB-T umgestiegen. Seit Mai letzten Jahres empfange ich auch DVB-T2 wenn bisher auch nur 6 Sender. Ich vermisse bisher nur zwei Sender: ZDF Neo gibt es zwar, aber es teilt sich einen Kanal mit dem Kika, wird also erst nach 21:00 übertragen und das Zweite ist NDR, wo meine Lieblings-Satiresendung Extra 3 läuft, doch die kann ich über die Mediathek eben am Mittwoch anschauen.

13.3.2017: Alle bauen größer, nur Europa kleiner

Auf diesen Nenner könnte man die jüngeren Raketenentwicklungen bringen. Wir haben ja derzeit eine Reihe von Raketen in der Entwicklung die ich mal in diesem Blog vergleichen will. Alle größeren Weltraumnationen planen neue Raketen, die USA sogar mehrere unterschiedliche Modelle.

Die Modelle


Fangen wir mal an mit der Aufzählung der neuen Varianten. In den USA sind es folgende:

Angara 5 Jungfernflug

Angara 5 Jungfernflug

Soviel zu den Modellen. Alle (bis auf eines) haben eine höhere Nutzlast als ihre Vorgängermodelle. Die einzige Ausnahme ist die Ariane 6 die in etwa die gleiche Nutzlast wie die Ariane 5 ECA beim größeren Modell erreicht. Um die geht es in diesem Blog.

Ist die Ariane 6 fit für die Zukunft?

Die Entwicklung der Ariane hat sich schon immer nach dem vorhandenen Markt oder Marktprognosen gerichtet. Ariane 1 wurde entwickelt um die Nutzlast der Atlas Centaur zu erreichen, für die Auslegung der Nutzlasthülle und Nutzlastmasse waren z.B. die Intelsat IVA Satelliten als Referenz vorgegeben. Sie waren die damals schwersten Satelliten. Die Weiterentwicklung zur Ariane 2 und 3 orientierte sich dann wiederum an der US-Konkurrenz. Die Ariane 2 sollte einen Einzelsatelliten der Intelsat VA Satelliten transportieren können und die Ariane 3 zwei Nutzlasten der Delta 3914, dem damals am häufigsten kommerziell eingesetzten Modells.

Ariane 4 sollte es ermöglichen nun eine der größeren und eine der leichtere Nutzlasten parallel zu transportieren sowie in mehreren Varianten auch schwere oder leichtere Nutzlasten dazwischen.

Ariane 5 entstand primär für das damals aktuelle bemannte Programm der ESA, jedoch hatte man auch Marktprognosen das die Satellitenmassen Mitte der Neunziger auf 3,5 bis 4,5 t ansteigen würden und so sollte sie dafür gerüstet sein. Die Weiterentwicklung sollte dann auch einen Doppelstart bei den größeren Satelliten ermöglichen die nun bis zu 6 t Masse erreichen.

Die ESC-B als weitere Oberstufe wurde mehrmals verschoben, als Anfang des Jahrtausends die Satellitenmassen langsamer anstiegen. Die Starts in den letzten zwei Jahren zeigen aber einen gegenläufigen Trend. Es gibt immer mehr Satelliten der 6 t Klasse, die vorher eher selten waren, dafür gepaart mit einem leichteren Satelliten der 3,5 t Klasse. Für einen 4,5 t Satelliten fehlt schon die Nutzlastkapazität. Die ESA hat zwar eine Small-Geo Plattform finanziell unterstützt, die um 3 t Startmasse hat, doch ob diese ein großes Marktsegment einnehmen wird, ist noch offen.

In den letzten Jahrzehnten war es so das sich die Startmassen von Satelliten an den verfügbaren Trägern orientierten. Ein Betreiber eines Satelliten hatte als Wunsch das er mit zwei unterschiedlichen Trägern gestartet werden kann. Das gab Sicherheit, wenn ein Träger „gegroundet“ ist auch wenn die Träger davon sehr unterschiedlich betroffen sind, z.B. Ariane 5 und Atlas seit über 10 Jahren nicht davon betroffen wurden, während das bei der Proton alle 1-2 Jahre passiert. Mit der Zenit, Proton und Ariane 5 als Standardträger in den letzten 15 Jahren lag die maximale Nutzlastmasse bei 6 t. 6 t das war die größte Nutzlast von Proton und Zenit. Wenn nun weitere Träger mit höherer Nutzlast verfügbar sind, so ist meiner Ansicht nach damit zu rechnen, dass die Nutzlast weiter ansteigt. Ein größerer Satellit ist meist effizienter bezogen auf den Transponder als ein leichterer. Wenn nun aber jetzt schon eine schwere Nutzlast nur mit einer leichten kombiniert werden kann, dann ist die Ariane 6, die ja erst in einigen Jahren zur Verfügung steht zu klein. Das kleinere Modell Ariane 62 mit 5,8 t in den GTO sogar zu klein für große Einzelsatelliten. Dabei wird diese Rakete ja dann für lange Zeit – Ariane 1-4 und Ariane 5 als letzte Familien werden waren/sind etwa 25 Jahre im Dienst alles starten müssen, was es gibt. Kurzum: Man wünscht sich eine größere Nutzlast. Entweder, indem man Marktprognosen macht oder, indem man sich an der Konkurrenz orientiert und das gibt, dann folgende Tabelle:

GSLV Mark III jungfernflug

GSLV Mark III jungfernflug

Träger Nutzlast
Ariane 62 5,8 t
Ariane 64 10,9 t
GSLV 4,2 t
H-3 6,5 t
Falcon 9 8,3 t*
Falcon Heavy 22,2 t*
New Glenn 13 t
Angara 5 Breeze M 5,4 t
Angara 5 KTKV 7,5 t
Langer Marsch 5D 6,0 t
Langer Marsch 5E 10,0 t
Langer Marsch 5F 14,0 t
Vulkan Centaur 11,0 t
Vulkan ACES 17 t

Wenn man die GSLV herausnimmt, die bisher auch keinen kommerziellen Start hatte so liegt bei den anderen Modellen die Einzelstartnutzlast bei 6,5 bis 8.3 t. Die größeren Modelle die Doppelstarts zulassen zwischen 11 und 22,2 t, wobei die SpaceX Angaben für einen geneigten GTO Orbit ist mit 15-20% kleinerer Nutzlast für den Standard GTO. Wenn man die chinesischen Modelle wegen des Exportembargos ausnimmt, gäbe es bei 13 t GTO-Nutzlast mindestens zwei verfügbare Träger (New Glenn und Falcon heavy), bei Ausbau der Vulkan sogar drei. Man sollte die Nutzlast der Ariane 6 daher so auslegen, dass die Ariane 62 eine große Einzelstartnutzlast transportieren kann, also 7,5 bis 8,3 t Nutzlast aufweist und die Ariane 64 dann bei etwa 13-14 t liegt. Abzüglich der Verkleidung und des Adapters für den unteren Satelliten sind das dann 12,3 bis 13,2 t netto in den GTO oder heute zwei großen 6 t Satelliten mit Wachstumspotenzial das man in einigen Jahren dann einen schweren und einen mittleren und in fernerer Zukunft dann einen schwereren und einen leichten transportieren kann. Spätestens, wenn die Satelliten dann nur noch Einzelstarts zulassen, wird man die Ariane 7 fordern.

Meiner Ansicht nach hat die Ariane 6 auch diese Nutzlast, denn sie hat eine größere Startmasse als die Ariane 5, modernere und leichtere Booster und eine leistungsfähigere Oberstufe. Das man sie mit kleinerer Nutzlast projektiert kann ich mir nur mit gezielter Verschlechterung von Leistungsdaten erklären. Besser wäre es gleich so zu konstruieren, dass man die Nutzlast erreicht, auch wenn vielleicht die Investition in einige neue Technologien höher ist.

15.3.2017:  Durchregieren

Donald Trump legt ja ein beeindruckendes Tempo vor, auch wenn seine Entscheidungen bei Vielen Stirnrunzeln verursachen. Aber man kann ihm nicht vorwerfen, er würde seine Wahlversprechen nach der Wahl vergessen. Ich glaube auch, das ist der Politikstil den er liebt: einfach bestimmen und Dekrete unterschreiben. Allerdings geht das nicht überall und bei vielen Vorhaben wird er wohl den Weg über den Kongress nehmen müssen. Dann wird es wirklich spannend. Den nominell haben dort die Republikaner ja auch eine Mehrheit. Dann wird man sehen ob die Parteidisziplin oder das Gewissen siegt. Ich frage mich, warum Obama nicht einfach alles per Dekret durchgesetzt hat. Wahrscheinlich ist er doch dafür zu sehr Demokrat.

Das Regierung per Dekret, eigentlich nur ein Pseudonym für eine Alleinherrschaft, egal ob man sie nun Diktatur oder Monarchie nennt. Das kennen wir aus nachvollziehbaren Gründen bei uns nicht. Das Grundprinzip der Demokratie ist ja, dass wenn viele zusammen eine Entscheidung treffen sie besser ist, als eine von einem Einzelnen getroffenen. Es werden mehr Aspekte berücksichtigt und man kommt durch Diskussion zu einem Prozess der zumindest die Mehrheit mitnimmt.

Demokratie funktioniert nicht!

Meine Erfahrung in den letzten Jahrzehnten ist aber, dass die Demokratie so nicht funktioniert. Schlussendlich besteht das Parlament aus vielen Abgeordneten, die wiedergewählt werden wollen. Die Kräfteverhältnisse werden von der Zweitstimme bestimmt und die steht für ganze Parteiprogramme. Die Abgeordneten müssen sich diesen unterwerfen. Tun Sie es nicht, wie ja ab und an (z. B. bei Entscheidungen über den EU-Rettungsschirm) der Fall, dann haben sie Disziplinarmaßnahmen bis hin zum Verlust des Listenplatzes zu fürchten. Das Parteiprogramm oder auch die Gesetzesbeschlüsse trifft aber eine Fraktionsspitze oder im Extremfall nur nie Kanzlerin. Also doch eine Monarchie? Nein, weil die Politiker gewählt werden wollen. Deswegen tun sie nichts was viele verärgern könnte.

Wir hatten zweimal in der Geschichte der BRD Kanzler die scheiterten. Schmidt hatte keine Mehrheit für seinen Nachrüstungsbeschluss in der eigenen Partei und Schröder stellte sich Neuwahlen, nachdem nach Einführung der Agenda 2010 die SPD reihenweise Landtagswahlen verlor. Gerade Schröder zeigt das Problem das wir heute haben. Den die nachfolgende Regierung hat die Reform ja trotz Ankündigung nicht zurückgenommen, genausovielmal wie die EEG-Umlage oder den (als er eingeführt wurde, bis 1995 „begrenzten“) Soli. Der Wähler honoriert Maßnahmen nicht, die ihn belasten. Er honoriert aber Wahlversprechen wie die unisono bei jeden Wahlen versprochenen Steuergeschenke. Selbst wenn er weiß, das eine Entscheidung gesellschaftspolitisch richtig ist, wird er danach entscheiden was kurzfristig ihm Vorteile bringt. Inzwischen wählen ja viele populistische Parteien, obwohl die überhaupt nicht vorhaben, die wirklichen Probleme zu lösen. Ich weiß hier sind viele andere als meiner Meinung, aber die Agenda 2010 war nötig. Den Sozialstaat wie er vorher war können wir und auf Dauer nicht leisten und nur ihretwegen stehen wir heute nicht so schlecht da wie Spanien, Italien oder Frankreich wie auch die Abbildung links zeigt (von der Wikipedia). Aber die Leute sehen nur was sie selbst betrifft: kürzere Bezugsdauer von Arbeitslosengeld I, Annahme jedes Jobangebots etc.

Gerade vor den Wahlen merkt man das immer: egal welche Partei: Es geht immer um Entlastungen. Dabei wird vergessen: wir schreiben zwar jetzt eine Schwarze Null. Das heißt aber nur, dass wir keine neuen Schulden machen. Nicht das wir keine Schulden mehr haben. Der Umstand ist weniger dem wirtschaftlichen Aufschwung als vielmehr der Nullzinspolitik geschuldet. Bei 2.285 Milliarden Euro Staatsschulden macht jeder Prozentpunkt weniger Zinsen eine Einsparung von 22,85 Milliarden Euro pro Jahr. Das ist mehr als der derzeitige Überschuss. Kurz. Steigen die Zinsen also nur um 1% sind wir wieder in den roten Zahlen. Die Folge: wir haben einen Reformstau. Es gibt eine Reihe von Gebieten bei denen man dringend etwas machen müsste. Doch das belastet die Bevölkerung und so schiebt jede Regierung das auf die lange Bank, was die Probleme nur vergrößert. Das zweite ist das meiner Ansicht nach die Unternehmen inzwischen einen zu großen Einfluss auf die Politik haben. Das zeigt sich in vielen Bereichen von den Ausnahmen bei der EEG-Umlage über die Übernahme der Entsorgungskosten für den Atommüll durch den Staat, die vielen Subventionen für verschiedene Branchen oder allgemein das Ungleichgewicht bei der Besteuerung, aber auch Beiträge. So wird seit langem der Unternehmeranteil an der Krankenversicherung eingefroren, der für den Arbeitnehmer steigt. Im Prinzip haben heute Unternehmen ein leichtes Spiel. Sie verweisen immer auf die Globalisierung und den Verlust von Arbeitsplätzen. Das geht nach dem Motto: Wenn wir mehr Steuern zahlen oder mehr Sozialbeiträge, oder genau soviel für Strom wie die Verbraucher, dann können wir hier nicht wirtschaftlich produzieren und müssen die Arbeitsplätze verlagern. Man spielt im Prinzip die Länder gegeneinander aus, und das obwohl schon heute viel in Entwicklungsländern produziert wird und dies nicht nur im Billigsegment. Selbst Markenhersteller wie Adidas, wo ein Turnschuh schon mal das dreifache eines Nichtmarkenfabrikates kostet produziert genauso billig wie die anderen in Bangladesch. Nur ist eben der Gewinn um ein vielfaches höher. Muss er auch, sonst kann man ja nicht Millionen bis Milliarden an Profifußballer Fifa und UEFA zahlen.

Als einer der Gründe warum Trump gewählt worden sein soll, wird ja auch genannt das er den Politsumpf in Washington aufmischen, vielleicht sogar trockenlegen soll. So was haben wir hier auch. Die Politik wird von Interessentengruppen bestimmt und Politiker haben Angst etwas wirklich zu reformieren weil sie zum einen wiedergewählt werden wollen (Schröder lässt grüßen) und zum anderen eben von Lobbyisten abhängig sind. Doch dazu denke ich muss man das System reformieren. Ich halte nichts von einem Präsidialsystem. Wenn ich mir die Präsidenten in den USA ansehe deren Politik ich bewusst miterlebt habe, so etwa ab Jimmy Carter, dann waren die Hälfte davon nicht wählbar. Trotzdem wurden sie gewählt und Erdorgan erscheint mir auch nicht als guter Kandidat für einen Präsidenten.

Was mir vorschwebt ist wieder mehr Basisdemokratie. Dazu habe ich folgende Vorschläge:

Weniger Macht den Parteien!

Im Grundgesetz steht „die Parteien wirken an der politischen Willensbildung mit“. In der Realität ist es aber so, dass die Parteien die einzigen sind die Politik machen. Die Erststimme ist heute praktisch ohne Bedeutung. Wenn (wie in vielen Bundesländern üblich) eine Partei alle Erststimmenmandate gewinnt, das dürfte z. B. in Bayern der Fall sein, dann gibt es weniger Abgeordnete die über die Landesliste einrücken, bzw. wenn die CSU beiden Zweitstimmen unter 50% kommt muss man sogar Ausgleichsmandate schaffen. Das bläht den Bundestag auf und ein Symptom für die verkrusteten Strukturen ist auch das es nicht gelungen ist diese Ausgleichsmandate zu reduzieren. Sollte man deswegen die Erststimme abschaffen? Nein im Gegenteil. Sie sollte für Kandidaten vorbehalten sein, die nicht in einer Partei sind, oder zumindest in den letzten 4 Jahren waren. Also wieder echte Volksvertreter und nicht Parteienvertreter. Damit besteht zumindest die Chance das diese Kandidaten nach ihrem Gewissen abstimmen und die Regierung muss im Parlament um Mehrheiten werben. Derzeit laufen Abstimmungen ja so, das die Abgeordnete der Regierung immer für ein Gesetz sind und die Opposition strikt dagegen. Vielleicht ist aber der eine oder andere Abgeordnete der Opposition dafür und nicht jeder von der Koalition davon überzeugt. Aber die Parteidisziplin siegt. Das führt zu so komischen Situationen wie ich sie gerade im Landtag von BW sah: Da war nach Vorstellung eines Berichts über die Ausstattung der Schulen und den Bildungsstandard der Schüler einiges im Argen. Das verteidigte dann die CDU die nun in der Regierung ist, obwohl sie mit dem Zustand nichts zu tun hat, er fällt ja in die Verantwortlichkeit der letzten Regierung. Umgekehrt wirft dann die SPD der Regierung Versagen vor, obwohl genauso sie damals regiert hat. So was verstehen nur Politiker.

Selbstverständlich dürfen die mit der Erststimme gewählten Bürger dann auch während sie im Parlament sind nicht einer Partei beitreten und wenn sie es tun verlieren sie ihr Mandat.

Mehr Demokratie!

Demokratie heißt Herrschaft des Volkes. Das darf aber gerade mal einmal alle 4 Jahre wählen und muss dann ein Programm wählen, das nur zum Teil mit dem übereinstimmt was man selbst für wichtig hält. Ich bin Grünenwähler seit 1990 und sehe keine Nähe in meinen Positionen zu anderen Parteien, trotzdem habe ich beim letzten Besuch des Wahlomates 2013 nur eine Übereinstimmung von zwei Dritteln zum Programm der Grünen gehabt. Zumindest bei großen Entscheidungen z.b. Euro Rettungsschirm, Autobahnmaut etc. denke ich kann man das Volk befragen. In der heutigen Zeit müsste das auch mit weniger Aufwand gehen. Wir haben heute einen Personalausweis mit Digitalen Signaturen. Dann müsste man eine Volksabstimmung leicht über das Internet durchführen können. Sichere Verschlüsselungs- und Authentifizierungsverfahren gibt es und der Staat besteht ja schon auf einer Steuererklärung per Internet. Für die ältere Generation könnte man alternativ eine Abstimmung per Brief vorhersehen. Denn Wahlkabinen würden sich dann nicht lohnen, auch, weil man meiner Ansicht nach dann nicht an einem Tag abstimmt, sondern einen kurzen Zeitraum, so ein bis zwei Wochen dafür Zeit haben sollte.

Das gilt auch für das Parlament. Bei Wahlen des Volkes gibt es Wahlkabinen mit Registrierung jedes Wählers und wie läuft es im Parlament, also da wo die wirklichen Entscheidungen fallen? Bei nicht gerade existentiellen Gesetzen wird mit Hand-Heben abgestimmt, und das von einem spärlichen Haufen Abgeordneter. Man könnte dort in den Pulten Abstimmungsmöglichkeiten z. B. mit drei Knöpfen für Ja, Nein oder Enthaltung einbauen und man könnte auch die Abstimmung vom Büro aus mit Authentifizierung einführen, damit auch die abstimmen, die gerade nicht dem Spezialausschuss angehören der das Gesetz vorher beraten hat. Das ist ein Grund für die Leere des Parlaments.

Wahl auf Zeit!

Ein dritter Punkt zur Verhinderung, dass man nur noch Vollzeitpolitiker ist, wäre es das man die Zeit in der man Abgeordneter sein kann limitiert. Ich schlage maximal 12 Jahre für Abgeordnete und maximal 8 Jahre für Regierungsämter (Staatssekretär, Minister, Kanzler) vor. Das verhindert zwar nicht das die Abgeordneten von der Lobby einvernommen werden, auch nicht das ihnen lukrative Jobs für die Zeit nach der Zeit als abgeordneter versprochen werden, aber es reduziert auch die Gefahr das ein Politiker danach nicht mehr in einen Beruf zurückkehren kann und davon abhängig ist. Ich würde ja auch für Abgeordnete nur 8 Jahre fordern, aber dann wird es schwer eine Regierung aufzustellen die mehr als 4 Jahre regiert, außer die treten schon bei der Wahl mit Neulingen die vorher noch nie im Parlamente waren.

Ich plane mal in einem neun Blog passend zum Wahljahr mal zu posten, was ich wohl als Kanzlerkandidat für ein Programm hätte.

17.3.2017: Ja wenn der große Vorsitzende das sagt …

Irgendwie zeigt SpaceX immer mehr Züge, die ich sonst nur von kommunistischen Regimen kenne. Es wird wahnsinnig viel angekündigt, das dann nicht kommt. Sie sind immer besser als alle anderen. Sie geizen mit technischen Details zu ihren Raumfahrtprogrammen (wann fällt die Mauer bei SpaceX – danach bekam man zumindest von den russischen Programmen etwas mehr Informationen). Dann gibt es die Sprache mit Ausdrücken, die bestimmte Sachverhalte immer anders bescheiben. Beim Kommunismus waren es oft Wörter, die mit "ismus" endeten wie Revanchismus, Materialismus, Sozialismus, Kaptalismus, Bei SpaceX sind es englische Abkürzungen wie RUD = Rapid Unscheduled Disassembly oder Verharmlosungen wie „Anomaly“. Außerdem siegt der Kommunismus (fast) immer und Neiderlagen werden erst zugegeben, wenn jeder andere sie auch schon bemerkt hat. So hat Spacex trotz mehrfacher Abweichungen von den Bahnparametern oder torkelnden Nutzlasten im Orbit und ausbleibenden Wiederzündungen ein 100% Success bis zum Juni 2015 reklamiert. Dann sind auch Raketen nicht explodiert, sondern es gab eben einen RUD. Wäre also das Ereignis etwas später passiert (im Schedule anstatt unscheduled) alles wäre in Ordnung gewesen. Bei Tschernobyl wurde der Gau auch erst zugegeben, als die radioaktive Wolke schon über Mitteleuropa abregnete.

Vor allem wurden kommunistische Regime von wenigen Personen, teilweise einer gelenkt und egal wie utopisch die Vorgaben waren, sie waren verbindlich. Das fiel mir auf, als ich folgende Passage stieß:

„Shotwell said it took SpaceX roughly four months to refurbish the Falcon 9 first stage for the SES-10 mission. In the near-term, she said, that will drop below two months, and eventually down to a single day. “I think Elon’s given us 24 hours, maybe, to get done what we need to get done, and it’s not a million people around a rocket scurrying like a beehive or an anthill.“

Also derzeit brauchen sie zwischen zwei und vier Monate für eine Inspektion und sie glauben ernstlich, das sie es in einem Tag schaffen, wenn Musk das anordnet? Eine Produktivitätssteigerung um etwa den Faktor 100, das schlägt doch die kommunistischen 5-Jahres-Pläne bei Weitem.

Natürlich wird man schneller, wenn man mehr Erfahrung hat. Aber diese Steigerung ist illusorisch. Ich habe als Beispiel man einen Trendchart meines Programm Launchlog Converters der Ariane 1-4 und Falcon 9 eingefügt. Bei beiden sieht man dasselbe Verhalten: Anfangs ist der Abstand zwischen zwei Starts groß, man ist in der Einführungsphase und prüft die Daten zwischen zwei Starts genau. Zudem hat man noch keine Serienfertigung etabliert, schließlich kann es durch die Erfahrungen bei den ersten Flügen noch Produktionsänderungen geben. Danach sinkt er ab um (mit Abweichungen wegen Verzögerungen bei der Anlieferung der Nutzlast oder schwankenden Auftragszahlen) um einen konstanten Wert zu schwanken. Das sieht man am besten beim Mittelwert bei dem sich die Schwankungen ausmitteln. Bei Ariane 1-4 muss man noch berücksichtigen das zum Schluss der Serie die Startfrequenz durch Einführung des Nachfolgemodells Ariane 5 abnahm.

Es gibt aber Unterschiede: die Falcon 9 hinkt, seit Sie eingeführt wurde ihren Aufträgen hinterher. Trotzdem gibt es auch ohne die beiden Zwangspausen nach Explosionen (RUD) deutliche Abweichungen nach oben so bei Start 7 und 12.

Der zweite Punkt ist: Wenn die Firma wie schon mehrfach angekündigt Raketen im Abstand von zwei Wochen starten will, nützen ihr Überholungszyklen von 2 Monaten wenig. Dann ist die Produktion, die derzeit eine neue Rakete pro Monat fertigen kann, schneller. Meiner Ansicht nach nutzt SpaceX die gebogenen Raketen derzeit als Druckmittel angesichts von enormen Verzögerungen läuft das wahrscheinlich so „Tja wir können ihren Satelliten wahrscheinlich Mitte 2018 starten, tut uns leid, dass das 18 Monate später als geplant ist, aber wenn sie eine schon erprobte Falcon Erststufe nehmen dann ginge es auch drei Monate früher...“. Ein Angebot, das man nicht ablehnen kann oder? Bisher wird zwar viel Tam-Tam um die Bergung gemacht, aber es gibt nur einen bekannten Kunden und der wurde mit einem satten Rabatt geködert. Doch auch SES dürfte nicht zufrieden sein. SES 10 ist ja nun der Nächste in der Liste, doch Arianespace hat angekündigt das gerade SES-15 für einen Sojus Start im April am CSG angekommen ist. Nach (oder eventuell vor) SES 10 kommt also gleich SES 15. Ja Geduld muss man haben, wenn man bei SpaceX Kunde ist. Erinnert mich irgendwie an die Post, als die noch bundeseigen war.

In dem Artikel gibt es aber eine weitere interessante neue Information: „Shotwell said SpaceX is “investing hundreds of millions” of dollars into production capacity for Falcon 9, and that the company also invested at this high level last year.“. Hmmm, was hat Elon Musk vor 5 Jahren geschrieben? Wir bauen bald 400 Triebwerke pro Jahr, das war im August 2011. Nun erst nach mehr als drei Jahren operativer GTO-Transporte und Verzögerungen, die im Bereich von bis zu einem Jahr liegen, fangen sie an die Produktionskapazität auszubauen. Das macht bei anderen Unternehmen keinen Sinn. Schließlich ist SpaceX immer noch der Newcomer. Oberste Priorität sollte es daher sein die Kunden zufriedenzustellen, denn es gibt nicht so viele Satellitenhersteller und Betreiber. Ein zufriedener Kunde kommt wieder. Stattdessen nimmt die Firma weiter Aufträge an, auch welche mit kurzen Zeitfristen. Bei der Konkurrenz braucht die Produktion einer Rakete eineinhalb bis zwei Jahre. Das heißt, selbst wenn sie, weil ein Konkurrent ausfällt und sie mehr Aufträge bekommen, sie können nicht kurzfristig neue Aufträge annehmen, außer sie lagern Raketen auf Halde. Wenn man allerdings ein Schneeballmodell hat, bei dem die derzeitigen Aufträge, die nächsten finanzieren, dann ist das stimmig. Sie können erst jetzt durch die Vorauszahlungen überhaupt die Produktion neuer Raketen finanzieren.

Die Produktion von Hunderten Triebwerken pro Jahr vor 5 Jahren als gerade mal zwei Starts pro Jahr stattfanden (dafür würden 20 reichen) macht noch deswegen keinen Sinn, weil SpaceX die Raketen iterativ verändert. Für Ende des Jahres ist die fünfte Version der Falcon 9 angekündigt. 2011 war nicht die Erste in Betrieb: Seitdem hat sich der Triebwerksschub mehr als verdoppelt von 420 auf über 840 kN. Wenn sie also 2011 so viele Triebwerke gebaut haben, dann wären die alle für die Schrottpresse gefertigt.

Trotzdem gibt es neue Abschlüsse. Hisdesat soll schon Ende dieses Jahr starten. Der Satellit war wie GRACE 2 auf einer Dnepr gebucht, die jedoch nach der Ukarinekrise praktisch am Boden bleiben muss. Angesichts dessen das der Launch Schedule von SpaceX bei den Portalen durchschnittliche Verzögerungen von 6-9 Monaten ausweist erscheint das optimistisch. Ich bin mir aber sicher das der Satellit zusammen mit anderen starten wird, z.B. Iridium Satelliten wie bei GRACE 2. Dafür spricht auch ,das der Operator 15-16 Millionen Dollar braucht. Das gezahlte Geld für die Dnepr muss er erst zurückfordern. Doch selbst wenn man beides zusammenzählt reicht es nicht für einen ganzen Falcon 9 Start. So ist wahrscheinlich das er sich einen Start mit Iridium oder GRACE 2 teilt. Nebenbei wird SpaceX teurer. Ein GPS Start kostet nun schon 96,5 Millionen Dollar. Vor einem Jahr war es bei einem anderen GPS Start noch 82,3 Millionen Dollar. Da es sich um Satelliten einer Serie handelt, kann man davon ausgehen dass die Kosten für SpaceX die gleichen sind. Die Rakete ist also um 17,2% in einem Jahr teuer geworden. Im US-Arsenal ist mangels einer mittlerer Trägerraketen das noch billig, aber bei 3.833 kg Startgewicht mit Apogäumanstrieb hätte er auch für weniger Geld von einer Sojus STK oder Proton gestartet werden können.

Nicht jede meint das SpaceX so toll ist. Für den ersten GTO-Start seit dem letzten RUD-Ereignis musste die Firma 73 anstatt 13 Millionen Dollar als Haftungskaution für Schäden für die Startvorbereitungen vorweisen. Spaceflight hat schon am 3.3. ihren Flug gestrichen.

BBei dem letzten Flug wurde die Erststufe übrigens nicht geborgen. Das hat Elon Musk schon angekündigt. Da der Satellit mit 5.600 kg zu schwer für eine Bergung sei. Zu schwer? Bei 8,3 t GTO-Nutzlast und 15% Verlust bei der Landung auf einem Droneschiff oder 30% bei Rückkehr zum Startplatz würde es knapp zur Rückkehr reichen auf jeden Fall zur Landung auf dem Droneschiff. Also wieder Luftblasen-Nutzlasten? Nein, ich glaube inzwischen habe ich das System durchschaut, und das ist dann auch konsistent mit den bisherigen Startangaben. Die Angaben auf der Webseite sind nicht die der Rakete, die gerade fliegt, sondern die der Rakete, die fliegt, wenn man jetzt bucht also in zwei Jahren. Vorher gab es als Maximalnutzlast 5.500 kg und da passt die fehlende Bergung sehr gut dazu. Das erinnert mich an den Softwarebereich, von dem auch Musk herkommt: Man verspricht alles für die nächste Version, die wird es dann schon richten. Und wie bei so inkrementell entwickelter Software gibt es eben in jeder Version mit neuen Dingen neue Bugs wie eben explodierende Heliumtanks, wenn man die Füllung ändert. Der Kunde als Betatester – damit hat schon Atari schlechte Erfahrungen gemacht, aber die Satellitenindustrie ist sicher experimentierfreudiger als die Endverbraucher :-) Wer so geizig ist das er bei einem Satellitenprojekt, das etwa 200-400 Millionen Dollar kostet um 15-30 Mill. $ zu sparen zum Billiganbieter wechselt der freut sich sicher, wenn seine Nutzlast in einem Feuerball, Entschuldigung einem RUD, aufgeht.

22.3.2017: Zeit für Galileo 2

Nach zwei Jahrzehnten ist der Jupiter wieder in den Blickpunkt der Forschung mit Raumsonden gerückt. Derzeit umrundet Juno/a> den Planeten. Geplant ist die europäische JUICE Mission zu den Monden Ganymed und Kallisto. Die NASA hat nun auch eine Europa-Mission „Europa Clipper“ angeleiert. Pläne für eine Europa Mission gibt es seitens der NASA schon lange und auch jetzt ist noch nicht sicher, ob sie kommt.

Was diese Missionen aber beides nicht leisten, ist das, was mal die Aufgabe von Galileo war. JUICE und Europa Clipper führen die Erkundung der drei äußeren großen Monde durch. Juno nur die Magnetfelduntersuchungen und Teilchenbeobachtungen von Jupiter. Aber Io und die inneren Monde bleiben außen vor und zumindest JUICE und Europa Clipper werden recht teure Missionen.

Ich will in diesem Aufsatz skizzieren, dass meiner Ansicht nach heute eine Mission mit den Zielen von Galileo für einen moderaten Preis möglich wäre und auch sinnvoll ist.

Die Einschränkungen, die Galileo hatte

Wie bekannt, war die Hauptantenne von Galileo nicht ausfahrbar. Die Ursache war, dass die Sonde mehrfach mit dem Truck durch die USA gefahren wurde, als sie erst 1986 auf den Start vorbereitet wurde, dann als dieser sich auf 1989 verschob wieder zurück zum JPL kam, dort teilweise auseinandergebaut wurde und dann wieder zurück zum Startplatz. Die Erschütterungen müssen wohl bei drei Rippen der entfaltbaren Antenne dazu geführt haben, dass das Schmiermittel verloren ging. Ohne eine ausgefahrene Hauptantenne konnte die Sonde mit der Niedriggewinnantenne, die nur für Notfälle vorgehen war, aber maximal 10-40 Bit/s senden. Die Hauptantenne hätte bis zu 134.400 Bit/s erlaubt. Trotz neu eingeführter JPEG-Komprimierung kam so nur ein Bruchteil der Bilder, an die man sich von der Mission erhoffte. (1.600 anstatt 50.000) Das galt auch für andere Experimente, Ebenfalls stark betroffen war das Plasmasubsstem, das ebenfalls eine hohe Datenrate erforderte.

Klar ist das JUICE und Europa Clipper andere aufgaben haben. Zusammen liefern sie außer für den Mond Io deutlich mehr Informationen über die galileischen Monde, aber sie sind auch erheblich teurer als eine Raumsonde, die, wie Galileo an allen Monden vorbeifliegt, ohne sich in der Forschung auf einen zu konzentrieren. Wahrscheinlich gäbe es diese Missionen ohne die geringe Datenmenge von Galileo nicht. Trotzdem hier mal als Gedankenexperiment: Was würde heute eine „Galileo 2“ kosten und was könnte man erwarten.

Verbesserungen bei den Instrumenten

Galileo wurde in der zweiten Hälfte der Siebziger geplant und benutzte die Technik, die damals aktuell war. Bei den Instrumenten sieht man dies deutlich. Nehmen wir mal die Kamera. Galileo war eine der ersten Raumsonden, die CCD als Detektoren einsetzten. Auch wenn es diese schon seit fast 10 Jahren gab, als die Entwicklung begann, war die Herstellung eines fehlerfreien, den Erfordernissen genügenden Sensors eine Herausforderung: von über 1.000 von Texas Instruments hergestellten Sensoren erfüllten nur 2 die Anforderungen. Schuld dafür waren auch die vielen Pixel: 640.000. Die zeitgleich entwickelten Raumsonden zu Halley hatten 113.880 Pixel (Giotto) und 294.912 (Vega). Heute gibt es astronomische CCD die viel größer sind. Gaia brach mit Sensoren von E2V auf die 8.847.000 Pixel haben und davon gleich 106. Einzelexemplare sind das also nicht mehr.

Warum ist dies so wichtig? Nun Galileo ist eine Vorbeiflugsonde, so wie es auch Europa Clipper und Juice sein werden. Erfasst man dann bei gleicher Auflösung ein größeres Gebiet, weil man einen größeren Sensor mit mehr Pixeln hat, so kann man pro Vorbeiflug einen größeren Teil der Oberfläche mit hoher Auflösung kartieren, denn der Abstand steigt ja rund um den nächsten Punkt an.

Noch größer ist der Sprung bei anderen Instrumenten. Während bei Kameras nur die Sensoren leistungsfähiger wurden, können andere Instrumente heute viel mehr als zu Galileos leisten. Galileo war auch die erste Sonde, die ein abbildendes Spektrometer hatte. Ein klassisches Spektrometer macht ein Spektrum eines Punktes. Dazu wurden damals Sensoren wie Temperaturmessfühler oder lichtempfindliche Dioden entlang des Spektrums gefahren. Man erhielt die genaue chemische Zusammensetzung des Punktes, mehr aber auch nicht. Heute spreizt man das Spektrum über einen CCD-Sensor auf, der im visuellen oder IR empfindlich ist. Jede Spalte steht dann für die Intensität einer Wellenlänge und die Zeilen für die Punktinformationen in dem Spalt. Zuerst sieht dies nach keiner großen Verbesserung aus, man erhält eben viele Punktspektren gleichzeitig. Doch wenn man das Instrument (oder die Raumsonde) bewegt, so erhält man ein Bild aus vielen dieser Spalten, das man über den Planeten oder Mond führen kann wie bei einem Zeilenscanner. Und jedes Bild kann man einer beliebigen Wellenlänge ansehen. So kann man die chemische Zusammensetzung von Himmelskörpern sichtbar als Falschfarbenbild machen.

Plasmainstrumente und Radiowelleninstrumente lieferten bei Galileo Daten über auftreffende Ionen oder gemessene Radiowellen. Letztere konnte man, wenn man sie in den hörbaren Bereich verlagerte, zumindest als Geräusch „visualisieren“. Schon Cassini setzte mit INCA und dem RPWS Instrumente ein, die die dreidimensionale Umgebung der Sonde als Grafik wiedergeben konnten.

Dazu kommen neue Instrumente wie ein SAR-Radargerät dass auch für Europa-Clipper vorgesehen ist. Dieses kann nicht nur die Bodeneigenschaften bestimmen, sondern sogar etwas in den Boden hineinschauen und so feststellen ob dieser aus festem Eis, Eis-Geröllmischung oder eingefrorenen Gasen besteht.

Kurzum: Die Instrumentalisierung hat sich deutlich verbessert. Ein Grund für Galileo 2.

Datenverarbeitung

Bei einer Vorbeiflugsonde wie Galileo ist die Datenverarbeitung ein wichtiger Punkt. Galileo konnte entweder Daten in Echtzeit senden oder auf einen Bandrekorder aufzeichnen. Der konnte 178 Bilder aufnehmen und hatte eine Datenrate von etwa 100 Kbyte/s. Galileo passierte die Monde in Entfernungen von 200 bis 2000 km. Nehmen wir mal 1000 km für ein Beispiel an. Der Bandrekorder brauchte rund 6,5 s für das Aufzeichnen eines Bildes, in der Praxis länger, da ein Bandrekroder erst mal starten und stoppen muss. Bei 5 km Relativgeschwindigkeit zu einem Mond hat Galileo dann schon 33 km zurückgelegt – das nächste Bild entsteht aus 3,3% höherer Distanz. Begrenzender wirkt es sich aus, das der Bandrekorder maximal 178 Bilder aufzeichnen konnte. Aus 1000 km Entfernung nimmt die Sonde einen Ausschnitt von etwa 8x8 km aus. Auch unter Berücksichtigung, das nach 178 Bildern dieser Ausschnitt dann auf 13 x 13 km angewachsen ist, dürfte klar sein, dass man bei einem nahen Vorbeiflug so nur einen kleinen Teil der Oberfläche erfassen kann. Danach hätte Galileo auf die Echtzeitübertragung umschalten müssen, was mit Fehlerkorrekturinformationen dann schon 45 s dauert – dann legt die Sonde pro Zeit für das Speichern eines Bildes schon 225 km zurück. Kurz: Galileo konnte nur einen kleinen Teil der Oberfläche erfassen. Bei 5 km/s relativ zu Ganymed und einer Minimaldistanz z.B. 50% mit einer Auflösung von 490 m und die gesamte Oberfläche mit 620 m. Würde man den Detektor mit der Geschwindigkeit einer SSD (200 Mbyte/s) auslesen können, so wäre eine komplette Kartierung auf 30 m möglich. Selbst bei moderaten 40 MByte/s wären es noch 50 m Auflösung. Also eine Steigerung um den Faktor 10.

Heute ist das kein Problem mehr. Eine SSD ist auch mit Single-Bit-Speicherzellen anstatt der im Consumerberiech üblichen Multi-Bit-Speicherzellen mit Kapazitäten von Hunderten Gigabyte zu erhalten. Das sind >10.000 Bilder, selbst wenn man die 9 Mpixel CCD als Basis nimmt und jede SSD ist kleiner als ein Bandrekorder der in etwa so groß, wie ein Laib Brot war. Zudem erreichen sie Datenraten, die (beim linearen Schreiben großer Bilder) im Bereich von Hunderten Megabyte /s liegen, man könnte also in jeder Sekunde Dutzende Bilder aufzeichnen.

So nutzt man die Zeit bei einem nahen Vorbeiflug viel besser aus, kann mehr der Oberfläche in hoher Auflösung erfassen. Die hohe Datenrate nutzt auch den abbildenden Spektrometern. Den sie haben einen Nachteil: Die Datenmenge steigt anders als bei Kameras in der dritten Potenz zur Auflösung an.

Auch die Computertechnik ist weiter. Bei Galileo musste man spezielle strahlungsgehärtete Elektronik einsetzen. Juno setzte schon „normale“ Elektronik ein, die man auch auf anderen Satelliten nutzt. Sie ist aber komplett in einem Safe aus Titan untergebracht der als Strahlenschutz dient.

Die Daten müssen aber auch gesendet werden. Galileo hatte eine entfaltbare Antenne, die von TDRS-Satelliten abstammte. Das war eine Ausnahme. Seitdem gibt es wieder starre Antennen. Wahrscheinlich ist der NASA das Risiko zu hoch (militärische US-Kommunikationssatelliten setzen immer noch entfaltbare Antennen ein). Doch durch CFK-Werkstoffe sind diese auch leichter geworden als zu Galileos Zeiten. Was sich kaum geändert hat, ist die Datenrate im X-Band. Wie oben geschrieben, würde man aber erheblich mehr Daten gewinnen, die man zwischen den Umläufen auch übertragen müsste. Die Lösung ist die Nutzung des Ka-Bandes. Seit über einem Jahrzehnt wird es experimentell bei Raumsonden genutzt. Nutzt man es als primäres Medium, so müsste wenn man die Erfahrungen mit dem MRO zugrunde legt, je nach Wetter eine Steigerung um mindestens den Faktor 3-4, im Durchschnitt um den Faktor 5,5 bei gleicher Sendeleistung möglich sein. Der Empfang beim Ka-Band ist wetterabhängig, doch da die Sonde sowieso alle Daten zwischenspeichert, sollte das kein Problem sein, man wiederholt dann eben die Übertragung und gibt den Speicher erst nach korrektem Empfang frei.

Die Kosten

Warum meine ich das Galileo 2 so viel preiswerter als Galileo 1 sein könnte, die 1.39 Milliarden Dollar (1995) kostete? Nun es gibt schon ein Vorbild: Juno. Die Raumsonde umrundet seit letzten Herbst den Jupiter. Sie kostet insgesamt 1,1 Milliarden Dollar, aber zum einen ist der Dollar nicht mehr so viel wert und zum anderen war bei Galileo der Start mit dem Space Shuttle nicht in den Kosten mit drin.

Juno zeigt, wie man durch Technik einiges preiswerter machen kann:

Das nächste ist der Start erwünscht wäre ein direkter Start zu Jupiter. Juno hatte einen Erdswingby, was die Reisedauer um 3 Jahre auf 5 Jahre erhöhte. Da die Mission pro Jahr 37,1 Millionen Dollar kostet, entspricht das 110 Millionen Dollar mehr. Daher zuerst mal eine Abschätzung, ob ein direkter Start möglich ist. Eine Atlas 551 transportiert 1830 kg auf diese Geschwindigkeit. Eine Delta 4 Heavy deutlich mehr, kostet aber auch so viel mehr das die 110 Millionen Dollar Einsparungen. Die Jupiter-Nutzlast der Falcon 9 ist unbekannt, doch wenn ich die LEO-Nutzlast nehme und eine Centaur mit Sonde in eine Erdbahn transportieren lasse kann ich berechnen, wie viel die Centaur zu Jupiter befördert. Bei 14,3 km/s relativ zur Erde, komme auf 2.991 kg inklusive Adapter zur Trägerrakete. Mit Reserven sind das dann etwa 2.800 kg für die Raumsonde.

Galileo wog ohne die Atmosphärensonde 1.883 kg. Rechnet man das höhere Gewicht von Solarzellen und Abschirmung der Elektronik hinzu, so ist man bei 400 kg Zusatzgewicht, die weiteres Gewicht beim Treibstoff verursachen. Allerdings entfallen bei einem direkten Start auch die Deep-Sky Manöver, die bei Galileo viel Treibstoff gekostet haben. Weiterhin hat man heute Triebwerke mit einem etwas höheren spezifischen Impuls.

Ich habe mal zwei Berechnungen gemacht:

Einmal ohne Deep-Sky Manöver, nur das Orbit Deflektion Manöver eingerechnet, das für die Atmosphärensonde notwendig war. Bei 400 kg Zusatzgewicht und dem spezifischen Impuls von 3148 m/s der heutigen 400 N Apogäumsmotoren komme ich auf eine Startmasse von 2.493 kg. Damit wäre ein direkter Start mit einer Falcon 9 Centaur möglich.

Berücksichtigt man den Treibstoff den Galileo für die Deep Sky Manöver verbrauchte und die weitestgehend entfallen, dann sieht es deutlich günstiger aus. Bei 150 m/s für Kurskorrekturen bis zu Jupiter komme ich auf eine Startmasse von 2.226 kg. Das ist aber immer noch über der Performance einer Atlas.

Bei Verwendung einer Atlas und einem Swing-By an der Erde, wie bei Juno, müsste man daher auf vergleichbare Kosten wie bei Juno kommen. Rund 1,1 Milliarden Dollar. Nicht wenig, aber deutlich unterhalb der Kosten für Europa Clipper. Eine Falcon 9 kostet rund 100 Millionen für eine Regierungsmission. Rechnet man etwa 50 Millionen für eine Centaur hinzu (eine Atlas 401 kostet 105 Millionen für „reguläre Kunden“ und mehr als 50% wird die Oberstufe sicher am Preis nicht ausmachen) so ist man deutlich günstiger dran. Bei Juno kostete die Trägerrakete mit Start 190 Millionen Dollar. Davon könnte man also schon 40 sparen. Weitere 110 Millionen kämen durch die Verkürzung der Reisedauer zustande. Damit wäre Galileo 2 für 950 Millionen Dollar umsetzbar. Voraussetzung wäre, dass die NASA diese Kombination will. Sie ist ja schließlich noch nicht geflogen und zertifiziert und SpaceX auch fremde Stufen transportiert. Bei einem normalen Launch Service Provider wäre das kein Problem, es ist eben eine besondere LEO-Nutzlast, doch bei SpaceX ist ja alles etwas anders.

Damit man die Sonde mit einer Atlas V starten kann, müsste man die Trockenmasse unter 1.085 kg bringen. Abzüglich Antriebssystem sind das 904 kg oder 171 kg mehr als bei Galileo. Da der „Safe“ für die Elektronik schon 157 kg wiegt, dürfen die Solarpaneele nur 14 kg mehr als die RTG wiegen, was bei gleicher Leistung Solarzellen mit einer Leistungsdichte von 120 W/m² entspricht. Dazu kämen noch die Strukturen. Juno hatte welche mit 80 W/m² aber relativ schweren Strukturen, weil die Sonde rotiert und dazu kam eine Beschichtung. um die Strahlungsbeständigkeit zu erhöhen. ARK-Flexarrays sind bei großen Größen (und die braucht man bei Jupiter, da um die 560 Watt die die RTG bei Galileo nominal hatte, zu erzeugen, man Solarzellen braucht die auf der Erde rund 15,2 kW liefern) fähig diese Leistung zu erreichen. Die Ultaflex Arrays für die Cygnus liegen auch in der richtigen Größenordnung. Dies wäre eine Alternative wenn man den Start auf einer Atlas ohne Swing-By anvisiert.

{Edit]

Da die Frage nach Ionenantrieben aufkam: da ist das Problem der Kostenfrage. Bisherige dezidierte „Ion Prpopulsion Modules“ als zusätzliche Stufen gibt es selten. Es sind meist integrierte Lösungen wobei dann das Preisschild das der ganzen Mission ist. Ich kenne aber zumindest eine Ionenstufe, die untersucht wurde. Das ist VENuS für die Vega. Die Stufe wiegt 681 kg, fasst 551 kg Xenon bei einer Stromversorgung von 12,5 kW und einem Bedarf von 10 kw (Mehr da ein betrieb im Van Allen Gürtel vorgesehen ist). Bei zwei Tanks wiegt die Stufe 786 kg woraus man eine Tankmasse von 105 kg errechnen kann. Jeder Flügel wiegt 30 kg. Der Rest der Massenaufteilung ist leider unbekannt. Der spezifische Impuls und die Effizienz des Hall-Effekt Thrusters ist nicht genannt. Eine Liste von bekannten HAL-Thrustern hat eine gewisse Streubreite bei diesen Parametern, doch mit einem spezifischen Impuls von 2500 s und einer Effizienz von 0,6 als Annahme liegt man im Mittelfeld kann man die Leistung berechnen.

Ich habe damit es nicht zu komplex wird den Einsatz als zusätzliche Stufe untersucht, die abgetrennt wird sobald die Jupiter Übergangsbahn erreicht ist. Damit verändert sich die Masse von Galileo nicht und auch das Antriebsvermögen bei Jupiter.

Ansatz 1: Unveränderte VENuS als Kickstufe.

Mit dem Trockengewicht von 681 kg, 545 kg Treibstoff bei einem spezifischen Impuls von 24500 m/s und 2.226 kg Masse von Galileo (interplanetare Manöver fallen ja weg) + 80 kg für den Adapter ergeben sich sehr lange Reisezeiten. Das grundsätzliche Problem ist das die Sonde schon mit etwa 35 km/s relativ zur Sonne starten muss (maximal 4,2 km/s Geschwindigkeitsänderung). Dann muss man aber bald eines der beiden Triebwerke abschalten und wenn die Stromversorgung unter 5 kW sinkt das zweite. Es ergeben sich so mehrere Umläufe bis man die Zielgeschwindigkeit erreicht. Bild 1 zeigt das mit dem vollständigen Treibstoffverbrauch: Startgeschwindigkeit 34810 m/s solar, Dauer: 6 Jahre 115 Tage.

Ansatz 2 : Kickstufe mit doppelter Tankanzahl und Stromversorgung durch Galileo

Nimmt man die doppelte Rest-Startmasse (Venus ohne Tanks und Flex-Arrrays) an, darin enthalten 5 Triebwerke, da man die 15 kW Leitung von Galileo hinzurechnen kann mit der doppelten Treibstoffzuladung so sieht es besser aus: Nach 2 Jahren 307 Tagen, nur wenig länger als bei einer Transferbahn ist man bei Jupiter wenn man mit 33.600 m/s startet.

33.600 m/s solar entsprechen rund 11,7 km/s relativ zur Erdoberfläche. Die dann beim Start 4.678 kg schwere Raumsonde könnte eine Atlas 541 sicher transportieren.

Die Kostenabschätzung ist schwierig. Im Dokument steht: „CBE cost and target: 10% of launch service cost

Competitive to Soyuz launched from Kourou“

CBE sagt mir als Abkürzung nichts. Leider taucht die Abkürzung auch nur hier im Dokument auf. 10% des Vega Startpreises wären nur 3-4 Millionen Euro. Das wäre in der Raumfahrt schon verdammt billig, dafür gibt es woanders gerade mal eine Papierstudie. Wenn es aber konkurrierend mit einem Sojus Start wäre, dann muss der Preis unter 38 Millionen Euro, der Preisdifferenz der beiden Träger liegen.

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99