Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 516: 12.12.2017 - 27.12.2017

12.12.2017: By Bye Andreas Stiller

Mit der letzten ct‘ gab Andreas Stiller seinen Abschied. Andreas Stiller war ct‘-Redakteur von Anfang an, seit der ersten Ausgabe 12/83. Schon alleine das ist eine Besonderheit. Wie viel hat sich doch in dieser Zeit verändert. Man muss sich nur die Themen der ersten Ausgabe ansehen. Das erste Bauprojekt: eine Terminalkarte, Programmierung des Z80 PIO, ein Monitorprogramm für Z80 CPUs, Tests von CBASIC und MBASIC, Grundlagen über Drucker. Die heutige ct‘ befasst sich mit Smartphones, Smartwatches, Smarthome, Fahrradcomputern und Fahrassistenzsysteme. Computer kommen nur noch am Rande vor. Wenn mal ein Test von Computern kommt, dann über Luxusnotebooks und Server.

Ich wollte Andreas Stiller, der sich still und leise mit einem Satz am Ende seiner letzten Kolumne in den Ruhestand verabschiedet hat, eigentlich eine Email schicken, es wäre die Erste gewesen, obwohl ich seit über 30 Jahre seine Artikel lese, habe es aber dann irgendwie verbummelt und in der aktuellen ct‘ erscheint er schon nicht mehr im Impressum. Ich dachte mir es wäre eine gute Idee mal die Zeit zu reflektieren und anstatt einer Mail einen Blog zu schreiben.

Die ct‘ spiegelt ja die Veränderung der Computerbranche wieder. Es ist eigentlich nur eine Fortentwicklung des Trends, den es seit den ersten Computern gab. Sie wurden immer benutzerfreundlicher, sie wurden billiger und sie erreichten damit immer größere Kundenkreise. Als die erste ct' erschien, programmierte man selbst. Sicher man konnte auch einen Computer nur nutzen, doch selbst das ging nicht ohne, dass man sich Befehle merken musste. Bei CP/M die wichtigsten Kommandos, bei Wordstar die kryptischen Codes, die man aber so schwer verlernen kann (STRG-KD und STRG-QF lassen grüßen), bei Dbase eine eigene Programmiersprache. Seit Langem muss man nicht mehr programmieren. Meiner Erfahrung nach als Dozent ist dann auch die Hemmschwelle viel größer. Meine Studenten taten sich mit dem Lernen von Objekt-Pascal, obwohl das viel einfacher als mit dem Turbo Pascal 3.0, das ich erlernte, ging erstaunlich schwer. Vielleicht weil sie schon eine Wisch-Oberfläche gewöhnt sind und das Schreiben ganzer Kommandos (ohne eingebaute Rechtschreibkorrektur) schon als archaisch empfanden. Sie sind nicht die Einzigen. Ich programmiere ja immer noch nebenbei für eine Firma und da stolpere ich immer über Erweiterungswünsche, die lauten „das ist ja ganz selbstverständlich, das hat jedes andere Programm auch“ und man dann über die Aufwandsabschätzung erstaunt ist. So letztes Mal über eine Zoom-Funktion bei einer Grafik über Mausrad. Mein Projektleiter meinte, weil das alle Grafikviewer haben es wäre eine eingebaute Windowsfunktion. Ist es aber nicht, man muss die Botschaft abfangen und dann jedes Mal ein Bild mit anderer Vergrößerungsstufe selbst zeichnen.

Die Zeit ist auch schnelllebiger geworden. Es gibt ja noch eine Sendung zum Abschied von ct‘ Uplink in der Stille so ein bisschen über sein Leben referiert. Er erwähnt auch, das der IBM PC erst zwei Jahre nach dem Start in den USA in Deutschland erschien. Das erinnerte mich an meinen ersten Computerkauf übrigens beim gleichen Laden wie Stiller: Vobis, gibt es auch schon lange nicht mehr. Etwa ein Jahr später ging ich da hin um was anderes zu kaufen, da war unter den Kunden auch ein Geschäftsmann, leicht zu erkennen am weißen Hemd mit Krawatte im Anzug und das im August, der ohne mit den Augen zu zucken die über 11.000 DM für einen IBM PC loseiste. Das wären heute rund 15.000 Euro. Der IBM PC wurde lange produziert, genauso wie viele andere Rechner dieser Zeit wie Apple II, C64 oder die Serie die ich hatte: CPC 464 (übrigens auch eine Parallele zu Stiller). Nach vier Jahren ging er kaputt. Ich habe mir für 289 Mark, weniger als ein Drittel des Neupreises einen neuen gekauft. Heute kann man froh sein, wenn man nach einem Jahr noch ein Ersatz für das Motherboard oder den Prozessor bekommt.

Zurück zur ct‘. Die habe ich mir anfangs selten gekauft. Wenn dann weil ein Test drin kam oder ein Programm das mich interessierte. Meine erste war die ct 85/07 gekauft wegen des Tests einer Vortex-diskettenstation, geschrieben von – Andreas Stiller. Die Diskettenstation habe ich mir übrigens gekauft. Schon alleine, weil mir die 3 Zoll Disketten auf Dauer zu teuer waren (50 Mark für 10 Stück, 10 3,5-Zoll-Disketten kosteten die Hälfte und auf die ging noch doppelt so viel drauf). Einige Routinen aus Listings von damals wie für kubische Spline-interpolation oder FFT-Synthese verwende ich übrigens immer noch. Nach Stiller wandte sich das Magazin anfangs an die Heimcomputerbesitzer mit Rechnern unter 1000 DM Kaufpreis. Das kann ich nur bedingt unterschreiben. Der Hauptgrund, warum ich die ct' im ersten Jahrzehnt so selten kaufte, war, dass sie so viele Bastelprojekte hatten. Für jemanden mit zwei Linken Händen waren damit 50 % der Zeitschrift nicht relevant. Auch die Programme waren anfangs Low-Level wie eben Assemblerprogramme. Das veränderte sich und als ich zur Mitte der Neunziger Jahre, inzwischen war bei der ct‘ der Fokus auf den PC gewandert, fast jedes Heft kaufte habe ich schließlich aufs Abo gewechselt. Zur Höhezeit so um die Jahrtausendwende war die ct nicht nur dicker als heute, ich kam mit dem Lesen auch kaum nach, obwohl ich sie während der Fahrt zur Arbeit las, weil praktisch das ganze Heft für mich interessant war. Einzige Ausnahme: die Story am Schluss, die habe ich in 30 Jahren vielleicht ein paar Mal gelesen. Prosa ist eben nicht meine Sache. Inzwischen bin ich wieder da, wo ich gestartet bin. Der größte Teil der ct‘ ist für mich nicht mehr relevant, und wenn mal was an PC Hardware getestet wird, dann habe ich das Gefühl ist es das, was sich die Redakteure sonst nicht leisten können wie teure Notebooks oder teure OLED-TV, Smartphones für 900 Euro etc, nicht das was sich die meisten kaufen. Das Niveau vonTipps und Know-how hat ebenso abgenommen. Know-how war in den Anfangszeiten wie ein Mikroprozessor funktioniert, man ihn programmiert. In der aktuellen Ausgabe ist Know-how wie man die Windows Dateitypen neu verknüpft: Auch ein Unterschied. Vieles was damals in der ct‘ stand überstieg meinen Kenntnisbereich, heute fühle ich mich Zusehens geistig unterfordert.

Von alldem blieb Stiller verschont. Er bekam irgendwann seine Kolumne „Prozessorgeflüster“ und war damit von den Veränderungen ausgekoppelt. Es ging in der Kolumne um Neuigkeiten in der Szene. Dazu kamen dann ab und an größere Artikel über die Architekturen der jeweils neuesten Prozessoren. Leider hat Stiller gerade das eingestellt, denn die interessierten mich am meisten. Ich kann mich noch gut an den Vergleich von Athlon und Pentium 4 erinnern, wo mir nach der Lektüre klar war, das der Athlon der bessere Chip ist und ich Aktien vom AMD kaufte. Leider verpaste ich dann den Absprung als mit der iCore Intel zum Gegenschlag ausholte, aber inzwischen stehen sie wieder sehr gut, wenn auch schon wieder etwas tiefer als beim Jahresanfang. Ich hoffe ja das, wenn es endlich mal Notebookchips auf Basis des Ryzen gibt, das ist mit den Tablets der größte Markt für die x86 Serie der Kurs nochmals hoch geht. An dieser Stelle einen Dank an Andreas Stiller: Wenn man seine Kolumne liest und er Firmen erwähnt sie etwas in Petto haben, dann sollte man die kaufen. Das habe ich ab und an gemacht. Die Apple Aktien liegen heute bei 600% des ursprünglichen Wertes und STM Microelektronics bei 234 %. In der Uplink-Sendung kam ein weiterer Tip: Cavium die offenbar einen konkurrenzfähigen Server auf Basis vom ARM Prozessoren entwickelt haben. Ich beobachte das Mal. Bisher hat mir die fleißige Lektüre der Prozessorgeflüsterkolumne rund 20.000 € eingebracht. Wenn Andreas Stiller genauso vorgegangen ist, denke ich kann er sich in einen Ruhestand mit finanzieller Absicherung begeben.

In der erwähnten ct‘ Uplink Sendung stellte ich einige Parallelen zu mir fest. So denselben Computer (Schneider CPC), die Vorliebe für den Z80, eine gewisse Abneigung gegen intel – ich habe lange Zeit nur Rechner mit AMD Prozessoren gekauft, nur der aktuelle ist einer mit Intel, einfach weil AMD zu viel Boden verloren hatte. Ich teile aber nicht alle seien Äußerungen. Einiges was er über den IBM PC scheibt stimmt, aber zwei Dinge meiner Recherche nach nicht (ich habe ja auch ein Buch zur PC-Geschichte geschrieben): Der IBM PC war zusammengeschustert aus Standardbauteilen, er war schnell entwickelt worden und sollte den größeren Rechnern keine Konkurrenz machen. Das alles stimmt. Aber er wurde nicht entwickelt, um Apple den Markt zu verderben und nicht offen entwickelt, damit es bald Nachbauten aus Taiwan gab. Die Intension war zum einen das IBM einen Markt sah, der komplett an ihnen vorbeiging und den sie mit ihren Entwicklungszyklen nicht bedienen konnten, daher auch das Zurückgreifen auf Standardbauteile. Das zweite war, das Sie, weil sie dort nicht vertreten waren und diese Rechner nun „in“ waren, selbst bei Abnehmern größerer Geräte rapide an Reputation verloren. Es ging darum wie ein Loewe, der das Design des IBM PC schuf „Geist und Herz wieder zusammenzuführen“.

Meiner Ansicht nach war IBM schlicht und einfach schlecht vorbereitet. Das sieht man auch an einigen anderen Storys in dem Zusammenhang. Sie wussten nicht, als sie nach Software suchten, das Microsoft keine Betriebssysteme programmierte. Sie nahmen das an, weil die Firma eine Z80 Card mit CP/M für den Apple anbot. Sorry, aber der Hersteller steht bei CP/M direkt nach dem Booten in der ersten Zeile auf dem Monitor.

Sie waren, als PC-DOS ausgeliefert wurde und es eine Klagandrohung von Digital Research gab, vollkommen überrascht und hatten noch nicht einmal die fast völlige Übereinstimmung von PC-DOS mit CP/M - immerhin dem Standardbetriebssystem damals bemerkt (was darauf schließen lies, das sie niemals auch nur einen Rechner der Klasse denen sie Konkurrenz machen, wollten mal benutzt haben) und sie ließen Bill Gates das Recht das Betriebssystem weiter zu lizenzieren. Das alles spricht nicht für eine richtige Planung, Marktrecherche. Es gibt ja Aussagen, wie viele IBM PCs das Management erwartete zu verkaufen und die Zahl war um etwa den Faktor 10 niedriger als die tatsächlichen Verkäufe. Daher lies man auch Gates das Geschäft mit den Kompatiblen, man erwartete schlicht und einfach nicht, dass es so viele Nachahmer geben würde. Wenn man aber zehnmal weniger PC verkaufen will als man tatsächlich tat (und das waren immer noch weniger als Apple II, bei dem Rutschen die Absatzzahlen erst einige Jahre später ab) dann kann man auch nicht davon sprechen, dass man Apple den Markt kaputtmachen wollte. Apple nahm übrigens den IBM PC auch nicht ernst. Andy Herzfeld hat mal in einem Interview darüber berichtet das seien Crew einen IBM PC gekauft habe, ihn auseinandergenommen und meinte, der PC wäre ein Witz, schlechter als das was Apple schon derzeit verkauft, geschweige den von dem nächsten (der Apple III sollte allerdings zum Flop werden).

Die Vorliebe für kleine Anekdoten verbindet uns übrigens auch.

Andreas Stiller will ein Buch scheiben – tolle Idee, werde ich mir bestimmt kaufen. Es soll um seine Lieblingsfirma gehen – ich denke er meint Intel. Es gibt ja schon das gute Buch „Intel inside“, das sich aber vor allem mit den Geschäftspraktiken befasst. Was fehlt und was er schier gut schrieben könnte, wäre ein Blick auf die Kirchengeschichte Intels. Inklusive Augenmerk auf Prozessoren, die als revolutionär angekündigt wurden und totale Flops wurden wie IAPX 432, I860, Itanium oder das falsche Pferd sprich Pentium 4 und die Netburst Architektur.

Sehr freuen würde ich mich über einige Gastartikel in der ct‘ über aktuelle Architekturen. Wie schon erwähnt ist das in letzter Zeit zu kurz gekommen. Auf frühere Artikel konnte ich zurückgreifen, als ich selbst mal so eine Rubrik aufgesetzt habe. In letzter Zeit konzentrierte er sich vor allem auf AVX, das scheint auch das Thema künftiger Gastartikel zu sein. Klar, die Weiterentwicklung der Prozessoren geht seit einigen Generationen nur noch im Fließkommabereich. Aber wie er selbst mal feststellte: AVX nützt wirklich nur was, wenn die Compiler das auch nutzen. Wenn schon bei einer einfachen Zeile, wie a[i]=b[j]*c[k]+a[i] die man 1:1 in einen FMA-Maschinenbefehl kodieren kann, es bei Compilern Geschwindigkeitsunterschied um en Faktor 10 gibt, dann möchte ich nicht wissen, wie oft AVX bei vielen anderen Berechnungen die ja nicht so als Idealfall vorliegen, eingesetzt wird. Stiller ist von der Ausbildung her Physiker. Die führen gerne Simulationen durch und die haben solche Konstrukte, daher kann ich das verstehen. Doch für den normalen PC-Benutzer, ich denke das weiß er selbst, dominieren Ganzzahlberechnungen und selten lange Iterationen über Arrays, als das AVX überhaupt relevant ist.

Soviel von mir. Ich wünsche Andreas Stiller erst mal einen gemütlichen Ruhestand. Er hat sich ja damit Zeit gelassen – wenn er wie in der Sendung gesagt, 1965 mit 13,14 seinen ersten „Computer“ gebaut hat, dann hat er das gesetzliche Renteneintrittsalter ja schon deutlich überschritten. Ich hoffe aber es wird ein Unruhestand. Das Schöne am Beruf des Journalisten oder Buchautors ist ja, dass es keine Altersgrenze gibt. Solange man fit im Kopf ist, kann man immer noch was machen und ganz ohne Aufgabe ist auch der Ruhestand ziemlich langweilig. Seine Rubrik „Prozessorgeflüster“ wird eingestellt. Wundert mich nicht, passte auch irgendwie nicht mehr in die heutige ct‘. Das Niveau hob sich einfach zu sehr von dem Rest des Inhalts ab.

18.12.2017: Ko-Kolores

Da ich derzeit ganz gut im Manuskript bei Band 2 liege und am Wochenende vier Sonden schaffte, dank dreier über die es wenig zu schreiben gibt (Phobos-Grunt, Yinghuo und GRAIL) denk ich kann ich mal wieder einen Blog einschieben. So viel gibt es nicht, aber doch ein bisschen was. Da ist zum einen die Regierungsfindung.

Derzeit laufen ja die Vorsondierungsgespräche. Schon damit tut man sich schwer, und weil man Abgeordneten nicht zumuten kann, wie Normalsterbliche bis Weihnachten zu arbeiten, finden die auch erst im nächsten Jahr statt. Wohlgemerkt: Vorsondierungsgespräche. Es gibt also Koalitionsgespräche, die mit einem Koalitionsvertrag enden, es gibt Sondierungsgespräche, bei denen man abcheckt, ob es überhaupt genug Substanz gibt, um eine Koalition einzugehen, in dem Stadium scheiterte ja Jamaica dank der Partei, die bisher noch immer ihre Partner im Regen stehen ließ – Ludwig Erhard, Helmut Schmidt und jetzt eben Grüne/CD/CSU. Was sind dann Vorsondierungsgespräche? Gespräche, ob man überhaupt Reden soll? Gespräche wie die Zusammenarbeit aussehen soll? Erinnert mich fatal an ein Sondierungsgespräch, das bedeutend für die PC-Geschichte war. Damals wollte IBM ihr Betriebssystem für den IBM PC von Microsoft kaufen, dort hatte man die Rechte nicht, also verweis man sie weiter an Digital Research, wo sie dann am nächsten Tag eintrafen, nur eben nicht wie bei Microsoft lange vorher angekündigt, sodass Firmengründer und Inhaber Gary Kildall den Vormittag über bei einem Kunden war. Die IBM Leute wollten das seine Frau ein Stillschweigeabkommen unterzeichnet. Ein hinzugezogener Anwalt riet ab und der Vormittag verging, indem man diskutierte, ob man überhaupt miteinander reden konnte. Wie man weiß, ging die Geschichte nicht gut aus.

Nun hat die SPD eine ganz tolle Idee. Da Groko unbeleibt ist, beim Wähler, bei der SPD machen wirs einfach anders. Wie manchen die KoKo – das Akronym steht für Kooperationskoalition. Sprich man einigt sich auf die Zusammenarbeit in einigen Bereichen bekommt Ministerposten und der Rest, was nicht zu den Kernbereichen gehört, ist dann ungeregelt und die Kanzlerin muss um Mehrheiten kämpfen. Klingt auf den ersten Blick gut. Man denkt sofort an so Unsinnsgesetze, die nur von der CSU kommen oder umgekehrt Gesetze die eine Mehrheit über die Grenzen der Parteien haben wie die Ehe für alle oder Cannabisfreigabe. Für niedrigere Steuern sind ja auch alle, nur befürchte ich jeweils nach anderen Konzepten. Ich befürchte nur eines: Da unsere Kanzlerin vor allem Tagegeschäft macht, ich kann mich zumindest an nichts substanzielles Erinnern, das eine echte Reform ist, also Bestand über längere Zeit hat wie unter Schnöder Agenda 2010, Atomausstieg, Förderung von Ökostrom – man kann dazu stehen, wie man will, aber es war eine Reform – wird sich noch weniger tun. Genug zu tun gäbe es. Eine Reform des Versicherungssystems, dass die Kosten, nicht dauernd weiter steigen. Eine Reform des Rentensystems, das der Tatsache Rechnung trägt, das es immer weniger Einzahler und immer mehr Bezieher gibt, eine Reform der Unternehmensbesteuerung das internationale Unternehmen auch hier Steuern zahlen, eine automatische Anpassung der Steuertarife an die Einkommenszunahme. Nichts davon wurde in den letzten Jahren oder gar Jahrzehnten angepackt. Das Rentenproblem ist sogar ein Dauerbrenner, ich kann mich noch Norbert Blüms „Die Rente ist sicher“ aus den Achtzigern erinnern. Vor allem würde das ja voraussetzen, das man die Zukunft kennt. Es gibt ja neben den Problemen die Jahrzehnte gären auch, welche die erst entstehen: Ukrainekrise, IS, irgendein EU-Land, in dem es bergab geht oder platzende Immobilienkredite. Nichts davon hat man vorausgesehen und könnte man in „Koalitionsverträgen“ festzurren.

Aber zurück zum Thema. Ich sehe das anders. Für mich klingt das Konzept der KoKo nach dem Konzept „Wasch mich, mach mir aber den Pelz nicht nass“. Die SPD ist in der Regierung, stellt Minister, ist aber auch gleichzeitig Opposition. Wie bitte soll das gehen? Schon jetzt ist es ja, so dass es viele Entscheidungen gibt, bei denen verschiedene Ministerien beteiligt sind. Paradebeispiel des CSU „So Called“ Ministers Christian Schmidt zu Glyphosat. Das wird es dann dauernd geben. Normalerweise müssten sich dann zwei Ministerien absprechen dann entscheidet eben eines alleine und das wie in diesem Fall über Verordnungen auf europäischer Ebene. Was passiert, wenn das dann aber mal ein SPD-geführtes passiert, wenn das dann aber mal ein SPD-geführtes Ministerium wie das Umweltministerium tut? Z.B. Verbindlich bei einem der Klimaabkommen für strengere Zielvorgaben eintritt (bei der Konferenz in Bonn dürften die das wegen dem Koalitionsvertrag ja nicht, da das CDU-geführte Wirtschaftsministerium den Entwurf zusammenstutzte)? Dann ist die KoKo schneller vorbei als man „Bumms“ sagen kann.

Vor allem aber ist es scheinheilig. Entweder man ist in der Regierung oder in der Opposition. Was dazwischen gibt es nicht – außer in der CSU. Ich bin ja noch immer für eine Minderheitsregierung. Ich meine das, wenn die CDU was Vernünftiges vorhat, sie auch überparteilich eine Mehrheit erhält. Einfach weil etwas „Vernünftiges“ andere auch überzeugt, auch wenn sie vielleicht an der einen oder anderen Ecke noch was korrigieren wollen, vielleicht findet auch genau das statt, weil die CDU ja eine Mehrheit braucht. Es ist ebenso die Chance einer Opposition Gesetze zu verabschieden, die nicht nur deswegen blockiert werden, weil man das vorher, so im Koalitionsvertrag verabredet hat. Das war ja bei einigen Initiativen so, denen gerne die SPD zugestimmt hätte.

Ich befürchte aber es wird die letzte Große Koalition sein. Die Letzte, weil beide Partner bei jeder großen Koalition an Stimmen verloren haben, wie folgende Tabelle der Zweitstimmen zeigt:

Wahl

CDU

SPD

Verlust CDU

Verlust SPD

Verluste Gesamt

2005

35,2

34,2




2013

33,8

23,8

-1,4

-11,2

-12,6

2017

32,9

20,9

-8,6

-5,2

-13,8

Immer haben die Parteien bei einer Groko verloren. Die Verluste sind in der Summe konstant, nur betreffen sie jeweils andere Parteien. Jetzt haben sie noch zusammen 53,8 Prozent, da reicht schon ein Verlust von 4 % das es nächstes Mal nicht mehr dafür reicht.

Und nun noch mein Tipp an die Parteien. Wisst ihr, warum ihr so viele Stimmen verliert? Weil man von einer GroKo die Lösung von GroPro erwartet: großen Problemen. Eine Vision, eine Reform, die über Jahrzehnte Bestand hat, ein Vorhaben das Deutschland voranbringt. Wenn man komfortable Mehrheiten hat und dann auch nicht auf jeden Abgeordneten in den eigenen Reihen angewiesen ist, dann ist das möglich. Das Dumme ist nur: Diese Vorhaben sind meistens erst mal unpopulär. Weil sie meistens langfristig dem Land helfen, aber kurzfristig teuer sind oder Einschränkungen bringen. Siehe Agenda 2010. Aber wer weiß. Merkel ist jetzt 63, in vier Jahren ist sie im Rentenalter. Man kann zwar noch mit 80 regieren (siehe Adenauer), aber vielleicht findet sie gerade angesichts der Probleme jetzt eine Koalition hinzubekommen, dass dies die letzte Amtszeit ist. Und ohne den Zwang wiedergewählt zu werden, könnte sie tatsächlich dann mal was bewegen. Okay, ihr könnt aufhören zu lachen. Klar es ist Angela Merkel, gegen die wiegt sogar ein Bismarkdenkmal beweglich und dann müssten die Vorhaben ja jetzt schon alle Bestandteil der Vor-Vor-Vor-Vor-Vor-Sondierungs-eventuell-Vielleicht-Wenn weihnachten und Ostern aus den Selben Tag fallen-Gespräche sein.

Was gibt es sonst noch? Es weihnachtet sehr. Nein ich meine nicht den Schnee der heute gefallen ist. Ich meine den Weihnachtstrubel. Mir gehen jetzt schon die Weihnachtslieder im Radio auf die Nerven, eigentlich schon seit letztem Donnerstag also 10 Tage vor Weihnachten. Mein Lieblingssender spielt ja immer „Die größten Hits aller Zeiten“, die meisten davon muss es in den Achtzigern und Siebzigern gegeben haben. Und weil es die Größten sind, kann man durchaus mal einen Titel zweimal in drei Tagen hören (und ich höre bestimmt nicht mehr als 2 Stunden am Tag Radio, bekomme also nicht alle Wiederholungen mit). Bei Weihnachtsleidern ist es das Problem, das es so wenige gibt. Also Poplieder nicht klassische Volkslieder. Zwar bemühen sich viele Interpreten auf dem Markt abzusahnen aber die wenigsten schaffen es auch. Ich schätze es gibt vielleicht 30 bis 40 die dann dauernd laufen. Dann kann man selbst ein nicht so prominentes Lied wie Reggae Christmas mehrmals am Tag hören. Und es geht einem in kürzester Zeit auf die Nerven. Dann muss dauernd vor Weihnachten auch von Weihnachten die Rede sein. Im Radio, im Fernsehen laufen Filme. Im Supermarkt ist es schon ab Mitte September Weihnachten. Dann tauchen schon die ersten Lebkuchen im Regal auf. Das ist die beste Methode, dass man sich auf Weihnachten freut – dann ist der Rummel nämlich vorbei.

Zugegeben ich bin ein Sonderfall. Ich bin alleine. Für mich gibt es daher weder den Zwang irgendetwas zum Schenken zu kaufen, noch mache ich den ganzen Rummel mit. Kein Baum, keine Lichterketten. Kein Festessen. Weihnachten ist für mich nichts Besonderes, ich habe die Tage auch fest eingeplant um bis Sylvester das Manuskript fertigzubekommen um dann im Januar korrekturzulesen. Vielleicht geht mir der Rummel auch deswegen mehr auf die Nerven als anderen.

21.12.2017: Fliegt woanders hin

Auch heute entnehme ich meine Inspiration zum Blog meinem aktuellen Buch. Im dem Datenblatt, in dem ich die wichtigsten Daten zusammengefasst habe, damit man sie schneller findet und der Fließtext nicht zu überfrachtet ist, habe ich auch ein Feld aufgenommen „Ergebnisse“.

Als ich das Datenblatt erstellte, war ich am Anfang des ersten Buchs und habe es nach den Daten gemacht, die dort so vorlagen und da konnte man für jede Raumsonde die Ergebnisse des kurzen Vorbeiflugs angeben. Das war relativ wenig, oftmals konnte man sie in wenigen Sätzen zusammenfassen. Das hing auch mit der Datenmenge zusammen: Mariner 2 lieferte genau 22.491 Bits von der Venus, weniger als der Artikel über die Sonde als ASCII-Text umfasst. Nun muss nicht mehr Daten mehr Erkenntnisse heißen. Der LRO hat bisher über 400 TByte an Daten geliefert, rund 64.000-mal mehr Daten als Mariner 9, ich denke aber nicht, das er mehr Erkenntnisse geliefert hat.

Bei den neueren Sonden tue ich mich schwer, das Feld zu füllen. Das hat verschiedene Ursachen. Der Offensichtlichste ist: Die Ergebnisse der alten Sonden kenne ich aus dem ff. In den Achtzigern und frühen Neunzigern habe ich jedes Buch über Planetenforschung verschlungen, das es gab und da werden die Ergebnisse jeder Sonde natürlich breitgetreten. Doch das alleine ist es nicht. Man kann sich ja informieren. Inzwischen habe ich auch den Bogen raus, einfach den Sondennamen und „discoveries“ oder „results“ in Google eintippen und man bekommt bald brauchbare Fundstellen. Ich nehme mal Curiosity. Hier 6 größten wissenschaftlichen Entdeckungen und mein Kommentar dazu:

  1. Es gibt alle Elemente die Leben benötigt. Curiosity fand C,H,O,S und P und das Wasser war früher nicht salzhaltig
    Meine Ansicht: Kohlendioxid und Wasser wurden schon vor Beginn der Weltraumfahrt in der Atmosphäre nachgewiesen. Damit drei der obigen Elemente. Schwefel wies Viking bei den Bodenanalysen nach. Phosphor Pathfinder. Die Daten sind also nicht neu, nur eine Bestätigung. Auf dem Mars verdampft Wasser schnell. Eine salzhaltige Lösung würde dann eine Salzkruste zurücklassen. So was hat man bisher nirgends entdeckt. Die Nachricht als „Top 1 der 10 wichtigsten Entdeckungen“ zu bringen, ist eine enorme Übertreibung. Da es sich um die häufigsten Elemente im Sonnensystem handelt, würde ich übrigens drauf tippen, dass man sie auch auf der Venus findet und auf Asteroiden. Bei Jupiter gibt es sie, das weiß man schon. Übrigens fehlt Stickstoff in der Liste, er ist noch vor Schwefel und Phosphor das häufigste Element in organischen Substanzen.

  2. Organische Substanzen wurden in den Felsen gefunden.
    Gähn. Man hat schon vor Jahrzehnten organische Substanzen inklusive Biomolekülen wie Aminosäuren in Meteoriten gefunden, seitdem auch in Kometen. Das Urey-Experiment zeigt, dass diese auch abiotisch entstehen können. Nicht zuletzt gibt es Methan (siehe nächster Punkt) in rauen Mengen auf Titan, ohne das dort jemand Leben vermutet.

  3. Methan ist in der Atmosphäre und die Konzentration ändert sich rasch.
    Auch nicht neu. Methan wurde schon von Mars Express entdeckt. Ebenso das die Konzentration variabel ist. Da das Molekül nicht stabil ist (wird durch UV-Strahlung zerstört und kann dem Mars durch die geringe Molekülmasse entkommen) hat man schon damals eine aktive Quelle angenommen, was schlussendlich zur MAVEN Mission führte

  4. Strahlung ist eine Gefahr für Menschen
    Das Level der interplanetaren Strahlung ist seit Jahrzehnten bekannt. Man weiß, dass es im Mittel schon zwei bis dreimal höher ist als im Erdorbit und es durch Strahlungsstürme rasch ansteigen kann. Ein Risiko ist daher immer gegeben. Das war schon bei den Apollo-Expeditionen bekannt und wurde dort bewusst eingegangen. MARIE an Bord von Odyssey sollte die Strahlung im Orbit messen und fiel während eines Strahlensturmes aus – das zeigt schon die Gefährlichkeit und das die geringe Marsatmosphäre nicht wirklich schützt dürfte offensichtlich sein.

  5. Der Mars hatte eine dickere Atmosphäre und früher mehr Wasser
    Das zeigten schon die Mariner 9 Aufnahmen von Flüssen die mal viel Wasser führten. Da es bei der heutigen Atmosphäre nicht flüssig sein kann, muss diese einmal dichter gewesen sein und irgendwo hin muss das Wasser auch hingekommen sein, das, was heute da ist, reicht nicht für Überschwemmmungstrukturen dieser Größe.

  6. Ein ehemaliges Flussbett wurde entdeckt. Runde Steine sollen einige Kilometer weit gerollt sein.
    Wie schon erwähnt wurden fossile Flüsse schon vor Jahrzehnten entdeckt. Das diese Geröll mitnehmen und das durch Reibung abgerundet sein dürfte liegt eigentlich auf der Hand. Runde, durch Wassereinwirkung veränderte Steine, konnten aber schon Spirit und Curiosity nachweisen. Also auch nicht neu.

Kurzum: ich finde es ist nichts Neues dabei und in der Plattheit der Erkenntnisse, also mehr oder weniger Offensichtliches finde ich ist das schon fast unverschämt. Also entweder gibt es Dilettanten bei der NASA die es nicht fertigbringen die wirklichen Erkenntnisse zu vermitteln oder, das wäre schlimmer, man hat wirklich nichts fundamental neues entdeckt. Dabei kostete diese Mission 2,5 Milliarden Dollar.

Das leitet mich zu meinem eigentlichen Thema über. Ich meine, dass man bei der Erforschung man anfangs sehr große Fortschritte macht und dann immer kleinere und das dafür der Aufwand immer größer wird. Das gilt nicht nur für die Planeten, ich könnte das auch für Chemie aufstellen, wahrscheinlich gilt es für jede Naturwissenschaft, nur fehlt mir die Kompetenz, für Physik und Biologie zu sprechen. Nehmen wir mal zwei Fragen beim Mars: die Menge des Wassers auf dem Mars und die Chemie der Oberfläche. Das Wasser auf der Oberfläche vorhanden ist weiß man schon seit Langem. Teleskopbeoachtungen zeigen eine helle permanente Polkappe. Die einzige häufige Verbindung, die dafür verantwortlich sein kann, ist Wasser. Die Mariner und Viking Aufnahmen zeigen auch Strukturen, die an gefrorenes Wasser erinnern. Neben den Polkappen vor allem Permafrostboden, der eine charakteristische Struktur bekommt, weil an der Oberfläche immer wieder Wasser sublimiert und dann Dellen verursacht. Daneben das chaotische Terrain, wo Wasser im Untergrund verschwand und dann der Boden darüber einbracht. 1980 würde die Gesamtmenge an Wasser zwischen 0,1 und 10 m globaler Bedeckung geschätzt, mit einem Trend, dass der obere Wert wohl der verlässlichere ist, da man damals den Wasserverlust im Laufe der Marsgeschichte auf 3 bis 5 m schätzte. Heute geht man von einer globalen Bedeckung von 35 m aus, etwa viermal höher als der damalige Wert. Das kann man nun unterschiedlich sehen. Absolut ist der Faktor 4 eine große Abweichung. Nimmt man aber die Auswirkungen an, so ist es wenig. Es ist 1/100 der Dicke der Wasserschicht auf der Erde und reicht so für Seen und Flachwassermeere aus, aber nicht wie bei uns für Ozeane, mit ihrer Fähigkeit große Mengen an Wärme aber auch Gasen zu speichern. Der Unterschied in der Auswirkung auf das Klima oder die Geografie ist vernachlässigbar. Wir wissen es heute besser, weil wir zum einen die Wassermenge in den obersten Schichten durch Spektrometrie quantifizieren können (etwa 14 cm in dem ersten Meter, dann kann man noch weiter in die Tiefe rechnen) und Radargeräte auch Wasservorkommen unterhalb der Kruste bis in 1-2 km Tiefe nachweisen können. Aber wie schon gesagt, es ändert nichts am Klimamodell oder geografischen Modell.

Das Zweite ist, das Viking oxidierbare Substanzen im Marsboden nachwies. Die Rover konnten Wasserstoffperoxide nachweisen. Phoenix dann Perchlorate. Was bringt uns das. Wir wissen nun, welche Substanzen es sind. Aber die grundliegende Erkenntnis, der Marsboden hat stark oxidierende Eigenschaften ist uralt und ebenso die Simplifikation für das Leben oder auch nur bemannte Missionen. Für diese ist es völlig, egal ob es Peroxide oder Perchlorate sind. Beide reagieren gleich.

Meine Theorie: Wenn wir einen Himmelskörper erforschen so wird zwar jede Mission uns mehr Details bringen, aber es werden immer weniger bis schließlich gar keine großen Entdeckungen mehr. Stattdessen vervollständigt sich das Gesamtbild. Dabei wird der finanzielle Aufwand immer größer. Nehmen wir mal Kameras. Mariner und Viking hatten relativ grob auflösende Kameras – Detailkameras machten wenig Sinn, denn die Datenübertragungsrate betrug nur 16,2 kbit/s. Der MRO sendet mit einer viel größeren Antenne, der achtfachen Sendeleistung und zudem in einem höherfrequenten Band und überträgt so in der Spitze die 200-fache Datenrate. Er macht daher mit einem kleinen Teleskop, das mehr wiegt als alle Viking Experimente zusammen Aufnahmen von nur 30 cm Auflösung – das war beim Start besser als bei jedem zivilen Erderkundungssatelliten.

Beim Mars hat das dazu geführt, dass wir heute eine globale Karte von 6 m Auflösung haben – das haben wir nicht von der Erde, da wir die Meeresböden kaum kartiert haben. Beim Mond müsste die Datenmenge der Kamera ausreichen, dass der ganze Mond auf 0,5 m genau kartiert ist, und das ist mit Sicherheit nicht bei der Erdoberfläche der Fall – besiedelte Gebiete sind so gut oder höher erfasst, aber nicht eine Wüste, die Antarktis oder der Dschungel.

Was folgt daraus? Wir sollten aufhören dauernd neue Sonden zum Mond und Mars schicken sondern woanders hin, wo wir noch nicht so viel wissen. Einige Dinge, die ich umsetzen würden, wären:

Ein Radar-Orbiter für die Venus. Die Magellandaten haben im Mittel 100 m Auflösung. Heute sind durch Fortschritte in der Elektronik welche die SAR-Daten verarbeitet, mit kleinen Satelliten Aufnahmen von 1 m Auflösung im Spotmodus möglich. Damit könnte man die Venus, wenn man einen Satelliten mit der Leistung des MRO dorthin entsendet, ohne Problem auf 5-6 m Auflösung kartieren.

Eine Sonde, die das nachholt, was Galileo nicht erreichte: Das wird mit JUICE und Europa-Clipper bald erfüllt werden. Die galileischen Monde sind sehr unterschiedlich und Ios Oberfläche verändert sich sogar dauernd. Galileo sollte das abbilden, konnte das aber nicht leisten.

Eine Erkundung von Titan: Auch hier wäre ein Radar-Orbiter der die Oberfläche in hoher Auflösung nicht wie jetzt einige hundert Meter bis Kilometer wünschenswert. Dazu ein beweglicher Titan Lander. Eine solche Mission ist derzeit in der Endauswahl für die nächste New Frontiers Runde.

Eine Mission zu Uranus. Uranus ist noch mit heutiger Technologie erreichbar in vertretbarer Zeit. Ein Orbiter könnte nicht nur Uranus und seine Ringe erkunden, sondern auch die Monde. Auch hier wäre ein Radargerät wünschenswert, da durch die Achsenlage mit Ausnahme der Tag/Nachtgleiche immer ein Teil der Oberfläche im Schatten liegt.

Eine Mission zu Neptun? Das Fragezeichen ist weil wenn man nicht 30 Jahre Reisezeit haben will wir heute mit Treibstoff die Geschwindigkeit um in einen Orbit einzuschwenken nicht abbauen können. Man müsste dann Aerocapture durchführen und das muss auf Anhieb klappen – also so das weder die Sonde verglüht noch einen falschen Orbit erreicht noch wieder Neptun verlässt. Derzeit haben wir weder die Technologie dafür noch denke ich die Erkenntnisse über die Atmosphäre von Neptun.

Was ich für überflüssig halte, sind weitere Besuche zu noch weiteren Asteroiden. Sie sind einfach zu klein für wirkliche geologische Prozesse, auch wenn es in der Frühphase sicher kurzzeitige Differentierungsvorgänge gab. Die Bodenprobenentnahme von Kometen, das zweite Projekt der Endrunde von New Frontiers wäre interessant, wenn es gelingt, die Probe, bis sie im Labor ist, die ganze Zeit extrem zu kühlen, sodass keine flüchtigen Stoffe entweichen können. Das gibt weiteren Aufschluss, inwieweit organische Substanzen abiotisch entstehen können.

Beim populären Ziel Mars sehe ich nur zwei Ziele die übrigens permanent ignoriert werden: die Marsmonde. Indien hat bei ihrem MOM als eine wissenschaftliche Entdeckung die aufnahmen von Deimos herausgestellt – maximale Auflösung: 330 m. Wer darüber lacht, sollte sich den Artikel mal ansehen. Dort findet man jedes Deimos Bild, das jemals von einer Raumsonde gemacht wurde – die meisten von Mariner 9 und Viking. Kein Einziges von den US- und ESA-Marsorbitern seit 1992, obwohl diese alle Monate lang den Orbit kreuzten. Selbst Exomars nun schon seit einem Jahr beim Aerobraking hat keine gemacht. Aber alle zwei Jahre hat man das Geld für eine neue Mission zum Mars. Warum? Könnte ja Leben geben, oder mal gegeben haben, oder zumindest mal Kolonien versorgen (das neueste Buzz-Thema), egal Hauptsache Leben, damit kann man Milliarden loseisen.

24.12.2017: Beim dritten Mal klappts

Ariane 1 StartHeute will ich an den 24.sten Dezember 1979 erinnern. Doch die Geschichte beginnt neun Tage früher am 15.12.1979. In Französisch Guyana steht die erste Ariane 1 auf der Startrampe ELA-1. Der Jungfernflug steht an. Der Countdown läuft herunter: Trois, Deux, Un, Feu!. Flammen treten aus, doch es tut sich nichts weiter. Acht Sekunden nach der Zündung geht die Rakete wieder aus.

Was war passiert? Nach der Zündung bleibt die Rakete noch einen kurzen Augenblick mit vier Hautklammern fixiert, während der Computer einen letzten Check macht, ob alles okay ist. Erst dann gibt er das Signal für die Freigabe der Klammern und die Ariane hebt ab. Bei dieser Überprüfung stellte er einen zu geringen Schub in einem der Triebwrke fest und gab den Start nicht frei und schaltete die Triebwerke wieder ab. Wie sich zeigte, war das ein Irrtum. Die Ariane wurde enttankt und das System überprüft. Am 20.12. begann man sie erneut zu betanken und am 23.12.1979 sollte der nächste Startversuch stattfinden.

Während es am 15.12. alles glatt lief, gibt es diesmal genau 58 Sekunden vor dem Abheben ein Problem. Die Umschaltung von den Bodensystemen auf die Bordsysteme funktioniert nicht komplett. Nun muss man zu einem definierten Punkt, der synchronized Sequence, einige Minuten vor dem Start zurückkehren, doch dabei treten weitere Probleme auf induziert durch die nicht komplette Übernahme der Kontrolle. Ein Ventil fällt aus, die dritte Stufe verliert an Druck, ein Filter friert zu. Als dann eine geschlossene Wolkendecke aufzieht, ist klar, dass diesmal kein Startversuch möglich ist. Er soll schließlich von Kameras genau beobachtet werden.

Diesmal wird nur die dritte Stufe enttankt. Die beiden anderen Stufen haben lagerfähigen Treibstoff. Ein letztes Mal will man es am 24-sten probieren. Ausgerechnet zu Weihnachten.

Zuerst sieht es auch am 24.sten Dezember 1979 nicht so aus, als würde es klappen. Im Gegenteil: 3 h 50 Minuten vor dem Abheben das erste Problem. Ein Ventil zur Druckbeaufschlagung der zweiten Stufe hat sich nicht geöffnet. Die Countdown-Uhr wird angehalten. Ein Techniker muss den Nabelschnurmast hochklettern, der eigentliche Montageturm wurde schon zurückgefahren. Er blockiert das Ventil auf „Offen“-Stellung und die Abdichtung erfolgt durch ein zweites Ventil in der Leitung. Es klappt, der Druck der Heliumdruckbehälter in der zweiten Stufe steigt von 195 auf 300 Bar. Der Countdown kann nach etwas mehr als einer Stunde wieder aufgenommen werden.

Er geht weiter bis 2 Minuten 47 Sekunden vor dem Abheben, dann reagiert ein Ventil zu träge und 8 Sekunden später hält der Computer den Countdown an. 20 Minuten lang wird das Ventil geöffnet und geschlossen. Alles scheint in Ordnung zu sein. Nun könnte der Countdown wieder aufgenommen werden, doch ein Schlüsselkontakt versagt. Man kann den Schlüssel drehen, wie man will, die Countdownuhr bleibt bei -2:47 stehen. Der Kontakt wird überbrückt und die Uhr springt auf -5:59. Es geht weiter.

Nun läuft alles glatt. Bei -4 s schwenken die Betankungsarme der dritten Stufe zurück, die bis zuletzt den verdampfenden Treibstoff ergänzt haben. Die Kamera schwenkt nun auf den Boden der Basis. „Quattre, Trois, Deux, un, feu ...“. Ein Wolke und kurz darauf eine rote Flamme erscheint, und nach endlosen Sekunden gibt diesmal der Bordcomputer den Start frei. Ariane hebt ab in einen nur mäßig bewölkten Himmel (eine Ausnahme in Französisch Guyana). Nicht nur das. Es gibt sogar das eigene Konfetti: Beim Start werden zwei Bänder durchtrennt, die vorher Isolationspaneele um die zweite Stufe festhielten. Sie fliegen nun weg. Die zweite Stufe wird isoliert, weil NTO bei 28°C siedet – und solche Temperaturen gibt es in Französisch Guyana. Die erste Stufe hat so viel Treibstoff, dass seine Erwärmung vernachlässigbar ist. Bei der Dritten wird der verdampfende Treibstoff bis wenige Sekunden vor dem Start ergänzt.

Mit jeder Stufentrennung beginnt die Spannung anzuwachsen. Als 9 Sekunden nach Trennung, der dritten von der zweiten Stufe die dritte zündet, kommt Jubel im Kontrollzentrum auf. Denn die dritte Stufe ist noch gar nicht qualifiziert. Sie ist noch im Testprogramm. Ziel des ersten Flugs ist es nur, die ersten beiden Stufen zu qualifizieren. Daher ist als Nutzlast auch nur eine Telemetrieeinheit an Bord die mit zahleichen Messfühlern Daten sammelt, die später bei den operationellen Flügen nicht erhoben werden und zum Boden überträgt. Ergänzt um 1215 kg Ballast in Form von Aluminiumkügelchen. Zusammen 1.600 kg, das ist die Mindestnutzlast die Ariane 1 nach Auslegung transportieren soll. Nun schaut jeder auf den Schreiber, der die Aufstiegskurve plottet. Computerbildschirme gibt es noch nicht. Die Aufstiegskurve verläuft immer am oberen Rand der Toleranzkurve. Der Brennschluss naht – und 10 Sekunden vor dem Zeitpunkt meldet der Kommentator Brennschluss. Was war passiert? Eine Explosion kurz vor Ende? Nein, der Bordcomputer hatte die dritte Stufe abgeschaltet, als sie die Bahn erreicht hatte und zwar 10 Sekunden vor dem nominellen Zeitpunkt. Was das bedeutet wird schnell klar, wenn man bedenkt, was das heißt. Das bedeutet, das rund 150 kg Treibstoff noch in den Tanks sind, oder die Nutzlast um 150 kg schwerer sein könnte. Schon vor dem Start rechnete man mit 1.700 kg Nutzlast für diese Nutzlast war die Brennzeit ausgerechnet, da es während der Entwicklung Verbesserungen gab. So erhielten die Viking Triebwerken Lavalldüsen anstatt der Kegeldüsen und etwas höheren Schub. Ariane 1 sollte eine Nutzlast von 1.865 kg aufweisen, rund 250 kg mehr als bei der Planung veranschlagt. Der Grund war, dass man den Schub und spezifischen Impuls der dritten Stfue nie unter Vakuumbedingungen bestimmen konnte, es gab damals keinen Höhenteststand für ein solch großes Triebwerk in Europa. Im Vakuum war er leicht höher als die berechneten 60 kN.

Mit Ariane 1 begann meine Begeisterung für Raketen. An den Jungfernstart kann ich mich nicht mehr erinnern, da diese erst in der zweiten Hälfte 1980 aufkam. Meine früheste Erinnerung war der Dritte, als wir auch den zweiten Meteosat gestartet haben. Dazu mit Apple die erste ausländische Nutzlast. Schon damals war ich stolz auf die Autonomie, die Europa erreicht hat, denn die Symphony Story kannte ich damals schon. Sich von den USA vorschrieben zu lassen, was man mit den eigenen Kommunikationssatelliten macht? Das geht gar nicht. Entsprechend nahm meine anfängliche Begeisterung für das Space Shuttle ab. Lange Zeit sah es ja so aus, als könnte es tatsächlich die Erwartungen erfüllen und die Kritiker, die meinten Europa wurde Milliarden für einen veralteten Träger ausgeben der keine Kunden angesichts des modernen Space Shuttles finden würde könnten recht behalten. Es gab in der Frühzeit zahlreiche kommerzielle Transporte. Doch spätestens 1986 war Schluss damit.

Unabhängig von der Prägung halte ich die Ariane 1 für eine schöne Rakete. Sie hat diese typische Raketenform – nach oben hin schlanker werdend, nicht so perfekt wie die Saturn, aber die breite Nutzlastverleidung macht sie sogar ein bisschen schicker. Dazu die perfekte Silhouette, nicht so pummelig wie eine Ariane 5, nicht so ein Stangenspargel wie die Falcon 9. Mit den, bei der Treibstoffkombination, deutlich sichtbaren Fallenstrahlen und dem Konfetti beim Start sieht sie auch eindrucksvoll aus.

Ariane 1 war schon als sie startete nicht das technisch neueste Modell. Trotzdem war sie erfolgreich und sie war für mich ein Symbol der Unabhängigkeit und dafür das wir Europäer es doch hinbekommen, nicht selbstverständlich nach dem Debakel mit der Europarakete. Mit den folgenden Modellen stieg die Nutzlast und der kommerzielle Erfolg und auch die Fehlschläge wurden seltener.

Von den neusten Modellen Ariane 5 und 6 bin ich weitaus weniger überzeugt. Ariane 5 hielt ich als sie genehmigt wurde für überflüssig – warum für einen riesigen Betrag (viermal teurer als die Ariane 1-4 Entwicklung) eine neue Rakete bauen, wenn noch nicht mal Ariane 4 geflogen ist? Vor allem gefiel mir das Konzept nicht. Man baut zwei leistungsfähige erste Stufen und setzt dann so eine kleine Stufe mit mittelenergetischen Treibstoffen drauf. Das ist verschenktes Potenzial. Die nachfolgenden Oberstufen lieferten dann zwar mehr Nutzlast, technisch optimal kann man sie angesichts der enormen Leermasse nicht nennen – die ESC-A basiert auf der Ariane 1-4 Drittstufe, nur wog diese bei 11,5 t Treibstoff leer 1,36 t, die ESC-A bei 14,6 t Treibstoff 3,3 t – das sind mindestens 1,5 t zu viel und ähnliche Bleigewichte gab es auch bei den ESC-B Konzepten und meiner Berechnung der Ariane 6 wohl auch hier – ich komme bei realistischen Stufenmassen, die sich bei anderen Modellen orientieren auf mindestens 13 t Nutzlast.

Immerhin es gibt andere Rekorde. Ariane 5 hat 83 Starts ohne Fehlstarts hinter sich. Damit liegt sie auf Platz zwei der Träger mit einer kontinuierlichen Liste von erfolgreichen Starts. Platz 1, gehalten von der R-7 sie 147 Starts ohne Fehlstart in Folge schaffte wird sie wohl nicht mehr erreichen. Die Vega kann, wenn die nächsten 7 Starts klappen, aber auf Platz 1 der Träger mit 100 % Zuverlässigkeit aufrücken. Der wird derzeit von der Minotaur mit 17 Starts gehalten, gefolgt von der Saturn mit 16 Starts (wenn man den Flug von Apollo 4 als nicht voll erfolgreich einstuft, die NASA zählt ihn ja als vollen Erfolg, da das CSM den vorzeitigen Brennschluss der Saturn ausgleichen konnte)

Was sich aber nicht geändert hat: Ariane ist eine europäische Rakete. Sie wird in Europa gebaut und sie sichert Arbeitsplätze auch in Deutschland. Deswegen wird sie immer meine Unterstützung erhalten.

37 Jahre später hat die Arianegroup (so heißen nach mehreren Namensänderungen derzeit die Firmen die die Rakete bauen) das man nun in die Fertigung der ersten Ariane 6 übergeht. Sie soll im Juli 2019 starten. Wer weiß, vielleicht verzögert sich das noch und es wird Weihnachten. Wäre schön, wenn es dann auch wieder klappen würde. Mit diesen Worten entlasse ich euch in die Festtage. Ich wünsche allen Bloglesern ein frohes Fest. Wir sehen uns dann nach Weihnachten wieder.

27.12.2017: Raumfahrtnachlese 2017

Zwischen den Jahren ist ja immer Zeit für Rückblicke und so will ich es auch halten. Heute geht es um das Raumfahrtjahr 2017 und in drei Tagen dann um meine Lieblingsfirma, wobei das aber mehr ein Dreimonatsrückblick wird. Da das Jahr noch nicht vorbei ist, ist das alles natürlich vorläufig. Bei mir sogar noch etwas Vorläufiger, da ich nicht selbst alles protokolliere, sondern das Launchlog von Jonathan McDowell benutze, das zuletzt am 10.12. aktualisiert wurde.

Betrachtet man die ersten beiden Grafiken, so fällt auf, dass es viel mehr Satellitenstarts als Raketenstarts gab. Es sind sogar so viele wie nie zuvor. Teilweise wurden über 100 Satelliten, vor allem Cubesats mit einem einzigen Träger gestartet. Viele davon nicht wie als dies anfing als Projekte von Unis, sondern von Firmen. Der Markt, wozu auch noch kleine Satelliten bis 100 kg gehören, boomt. Zahlreiche Firmen bauen Erderkundungssatelliten und inzwischen gibt es schon den Vorstoß der NASA deren Daten zu kaufen. Kein Wunder ist ihr Erderkundungsbudget doch über Jahrzehnte abgebaut worden und derzeit fehlt schon das Geld für einen Nachfolger der in die Jahre gekommene Landsat Serie.

In der Lage ist die ESA nicht. Zwei weitere Sentinels wurden gestartet, 6 sind im Orbit. Sentinel 1 und 2 sind mit je zwei Satelliten operational. Auch das Galileonetz wurde weiter vervollständigt und hat dieses Jahr erstmals eine Ausbaustufe erreicht, in der es allgemein benutzt werden kann.

Trotzdem denke ich das, wenn immer etwas privat geht, es der bessere Weg ist. Natürlich haben Regierungen andere Vorstellungen was für Daten sie brauchen. Der Markt wird jetzt getrieben von den großen Konzernen, die für ihre MAP-Produkte aktuelle und hochauflösende Fotos brauchen. Der Bedarf von staatlichen Organisationen ist ein anderer: Spektralreine Aufnahmen für Ernteprognosen sowie Krankheitsübersicht bei Pflanzen, Radaraufnahmen um Erdverschiebungen zu erfassen. Doch ich sehe keinen Widerspruch darin. Man müsste eben offen legen was man will und was man dafür zahlt und dann findet sich sicher auch ein Satellitenbetreiber, der eine der Anforderungen mit seiner Nutzlast erfüllt.

Ich denke auch das ginge mit anderen Anwendungen. Es gibt unzählige Wetter-Apps. Fast jeder hat eine, sie sind meist nicht kostenfrei oder zumindest werbefinanziert. Das ist ein Multimilliardenmarkt. Die Daten bekommen alle kostenlos von den Wetterdiensten. Warum eigentlich? Mit dem Geld könnte man auch die Wettersatelliten finanzieren. Das liegt aber noch in ferner Zukunft. Gerade erst haben die USA ihren ersten Wettersatelliten der nächsten Generation GOES-16 in Betrieb genommen. Das Programm mit 4 Satelliten kostet 11 Milliarden Dollar. Dagegen ist das europäische Meteosat-Programm mit 6 Satelliten mit 2,4 Milliarden Euro richtig billig.

Genauso denke ich würden sich GPS-Services lohnen. Auch das wird heute ja alles von Regierung finanziert. Solange es mehrere Netze gibt die gegeneinander konkurrieren wird das auch so bleiben. Wenn man aber von jedem Smartphone-Käufer das einen GPS-Sensor hat, nur einen Euro verlangt, so würde man bei den 1,53 Milliarden Stück pro Jahr, ohne Problem die Netze finanzieren können.

Was aber auch auffällig ist, ist das es dieses Jahr wieder auffällig viele Fehlstarts gab:

Fehlstarts 2017

Nr.

Datum

Nutzlast

Trägerrakete

Startplatz

Erfolg

1

14.01.2017

TRICOM-1

SS-520

USC K

2

25.05.2017

It's A Test

Electron

MAHIA LC1

3

18.06.2017

Zhongxing 9A

Chang Zheng 3B

XSC LC2

4

02.07.2017

Shi Jian 18

Chang Zheng 5

WEN LC101

5

27.07.2017

Simorgh Test payload

Simorgh

SEM

6

31.08.2017

IRNSS-R1H

PSLV-XL

SHAR SLP

7

28.11.2017

Meteor-M No. 2-1

Soyuz-2-1B

VOST PU1S

Gesamt

Starts

Erfolge

Erfolgreich [%]

Gesamt

7

0

Datum: 27.12.2017

Zwei davon entfallen auf neue Träger: die Smourgh von Iran, eine verbesserte Safir und die SS-520, eine japanische Trägerrakete wie die erste japanische Trägerrakete Lambda aus einer Feststoffrakete entwickelt und die bislang kleinste Trägerrakete.

Die Zahl der Träger im Einsatz steigt seit Jahren an. Es gibt dauernd Neue und die alten bleiben im Dienst. Dieses Jahr war auch dafür ein gutes Beispiel. Zenit und Delta schienen schon vor Jahren auszulaufen. Die NASA hat aber noch Deltas nachbestellt und dieses Jahr erneut eine gestartet. Die Zenit hatte sogar zwei Starts und eine russische Firma die Sealaunch aufgekauft hat bestellte 12 neue Träger. Sogar die Taurus hatte nach 8 Jahren einen erneuten Start, nun unter anderer Bezeichnung (Minotaur-C). Zwei neue Träger die keinen Fehlstart hatten kamen hinzu: Die Kuaizhou 1A, die KT-2, die GSLV Mark III (mit dritter Stufe). Ob es langfristig einen Bedarf an so vielen Trägern gibt? Ich bin skeptisch.

Dieses Jahr gab es keinen Raumsondenstart. Dafür gibt es nächstes Jahr eine ganze Menge. Angekündigt und fest terminiert sind Insight, die Parker solar Probe und BepiColombo. Angekündigt, ohne festen Termin sind Chandrayaan 2 und Chang‘e-4 – die chinesische Mission sogar mit zwei Starts (Relaysatellit und Landemission). Das wären 6 Starts, mehr als allen Jahren seit 1971, als es acht Missionen gab. Es zeigt auch das nun die kleinen Nationen immer weiter aufrücken. 2018 sind die Starts von fünf Nationen: USA, EU, China, Japan, Indien. Inzwischen haben sogar die arabischen Emirate eine Marssonde projektiert. Nachdem vor einigen Jahren zum ersten Mal Raumsonden von Nicht-Raumfahrtbehörden gestartet wurden, zog 2014 der Jux-Faktor ein als ein „Kunstwerksatellit“ gestartet wurden. Ab nächstes Jahr findet dann die Müllentsorgung

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / advert here Buchshop Bücher vom Autor Top 99
zum Mars statt.

Kurzum: 2017 steht wie die letzten und folgenden Jahre das Raumfahrt immer niedrigere Kostenschwellen hat und damit immer mehr gestartet wird. Sowohl von staatlicher Seite wie auch im boomenden kommerziellen und privaten Sektor. Dazu gehören dann eben auch Unsinnsprojekte.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99