Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 438: 7.10.2015 -

7.10.2015: Links überholt

Wurde Elon Musk und SpaceX inzwischen von Peter Beck und Rocketlab. Während Elon Musk sich selbst wohl als der einzige ansieht der Leute zum Mars bringt und an ihm verrückteren Plänen für die Zukunft brütet, die er dann kostenlos der Allgemeinheit zur Verfügung stellt (meist weil sie nur mit enormen Mitteln (oder gar nicht) umsetzbar sind wie sein Hyperloop) gibt es Leute die arbeiten nicht mit 50 Jahre alter Technologie und geben das als das Non-Plus-Ultra aus und machen nicht nur Pläne sondern sind wirklich innovativ.

Ich habe gestern einen Artikel über die Elektron-Trägerrakete geschrieben, den ersten über Trägerraketen seit der Epsilon vor einem Jahr. Das liegt nicht daran dass es kaum Entwicklungen gibt, sondern vielmehr daran, dass nur die wenigsten Schmieden auch jemals dazu kommen eine Rakete zu starten. Denn Ideen und Konzepte gibt es viele. Private Raketenentwicklung ist ja seit 10 Jahren zur neuen Spielwiese von Milliardären geworden.

Die Elektron hat immerhin drei ausgebuchte Starts und drei weitere teilweise gebucht. Sie ist auf ein Segment zugeschnitten, das derzeit boomt: Cubesats und Minisatelliten. 30 Kunden hat die Firma schon - ein Riesenunterschied zu SpaceX am Anfang, die nur einen Auftrag der USAF hatten. Später kam dann noch Rakhsat dazu. Mehr war es bei der Falcon 1 nicht. Derzeit fliegen Cubesats als Sekundärnutzlasten mit. Die Firma bietet den Start einer 1U Einheit für 80.000 Dollar an, relativ teuer pro Kilogramm Nutzlast, doch dafür auch in einen sonnensynchronen Orbit in 500 km Höhe und damit wesentlich langlebiger las ein Start von der ISS aus, wie er derzeit der Normalfall ist. Vor allem aber gibt es damit einen dezidierten Launcher und man muss nicht warten bis irgendjemand die Satelliten mal mitnimmt. Viele Anbieter machen das ja gar nicht z.B. transportieren weder Arianespace noch ILS Cubesats.

Was technisch überrascht, ist aber das die Firma bei einer so kleinen Trägerrakete in vielem technisches Neuland betritt anstatt einfach veraltete Hardware oder 60 Jahre alte Prinzipien umzusetzen wie dies heute eher der Normalfall ist. Bei einer kleinen Rakete wäre das eher zu erwarten, wenn die etwas größer ausfällt stört das bei 10-20 t Masse eigentlich keinen. Hier einige Fakten die ich verwunderlich fand:

Kurzum: Gegenüber der Electron wirken die SpaceX Raketen wie ein VW Käfern neben einem Porsche. Gegenüber der Falcon 1 als Vergleich ist die Elektron bei fast derselben Nutzlast halb so schwer und halb so teuer. Anstatt Verlegenheitslösungen wie das Serienschalten von Handbatterien beim Tesla als Innovation zu verkaufen ist die Firma wirklich innovativ. Neuseeland ist es zu wünschen, das die Starts der Electron klappen.

9.10.2015: Bitte liebe CDU ...

... gründet einen Landesverband in Bayern. Mir geht die CSU inzwischen so auf den Sack. Sicher die Partei war schon immer etwas "anders" und hat schon immer eine Politik gegen ihre Schwesterpartei betrieben. Aber das hat sich doch in den letzten Jahren, vor allem seit Seehofer Parteichef ist verselbständigt.

Ich kann mich noch gut an Kohl und Strauß erinnern. Auch hier gab es einen Dauerclinch, aber der war doch anderer Art. Strauß sah sich selbst als Politiker der Weltpolitik macht. Nachdem seine Karriere als Minister mit dem Spiegelskandal einen ersten Knick. Als dann seine Kanzlerkandidatur nicht im Kanzleramt endete blieb er Ministerpräsident - nicht ohne aber weitere Deals in der Weltpolitik einzufädeln wie den Milliardenkredit an die DDR, welche zum einen das System weitere Jahre aufrechterhielt zum anderen aber auch deutliche humanitäre Erleichterungen brachte.

Bei Seehofer und seinen Lakaien ist es anders. Sie wollen nicht in der Weltpolitik der Bundesregierung den Rang ablaufen. Sie wollen Provinzinteressen zum Gegenstand von Bundespolitik machen. Die CSU-ler die im Kabinett landen machen zudem Geldgeschenke an Bayern. Als Ramsauer Verkehrsminister war gingen 70% der Finanzmittel nach Bayern.  Nun werden die Stromtrassen mit einem zusätzlichen Milliardenaufwand unterirdisch verlegt - auch eine Forderung von Seehofer. Sicher, niemand will Stromtrassen vor der Haustür haben, genauso wenig wie Flughäfen. Aber es muss eben jemand eine Einschränkung hinnehmen wenn es der Allgemeinheit nützt. Die Interessen weniger Anwohner an den Trassen in Bayern (woanders sind sie ja schon verlegt) werden durchgedrückt. Das gilt auch für die Herdprämie, denn Ich glaube selbst in Bayern gibt es nicht so viele Nutznießer dieser Politik. Schließlich gibt es in Bayern mit dem Großraum München die zweitgrößte industrialisierte Region in Deutschland und auch viele andere Städte haben zahlreiche Industrien, in denen viele Leute Vollzeit arbeiten und ihre Kinder in Krippen abgeben. Dem noch immer nicht ausreichenden Angebot an Tageskrippen fehlt dagegen das Geld das als Herdprämie ausgeschüttet wird.

Das dümmste ist ja die Herdprämie von der man schon vor dem Start wusste das sie nichts einbringt, dafür aber von der EU einkassiert wird. Trotzdem drückt man sie durch, weil offensichtlich ein Teil der CSU-Stammwähler provinzielle Konservative sind und diese Forderungen haben. Dazu passt auch das sich CSU mit Ungarns rechtem Ministerpräsident vor der Presse zeigt zeitgleich dieser Flüchtlinge inhaftieren lässt und einen Grenzzaun aufbaut - pikant war doch Ungarn vor 26 Jahren der erste kommunistische Staat der seine Grenzen öffnete.

Nun ist das Durchsetzen von Einzelinteressen nichts besonderes. Jeder Abgeordnete vertritt auch einen Wahlkreis und damit die Interessen seiner Wähler. So führte schon vorher ein Stromtrassenteilstück unter die Erde - in Gabriels Wahlkreis. Nur ist nicht jeder Abgeordneter Vizekanzler und sein Einfluss ist gering. Die CSU stellt aber 56 Abgeordnete in der Koalition das sind ein Achtel der Abgeordnete, bei einer "normalen" Koalition ohne SPD wäre es sogar ein Sechstel und dann gäbe es ohne CSU auch keine Mehrheit mehr. Die Macht von 56 Abgeordneten nutzt die CSU um bayrische Interessen durchzusetzen. Dafür ist eigentlich nicht der Bundestag sondern der Bundesrat die richtige stelle, doch dort wäre man ja nur ein Land unter 16. Kein anderes Land bzw. keine andere Landesgruppe einer Partei hat diese Macht. So sitzt die Linke auch im Osten Deutschlands an der Regierung, die meisten Abgeordneten im Bundestag stammen von dort. Doch ihr Einfluss auf die Bundespolitik ist gleich null, genauso wenig können  andere Bundesländer ihre Interessen in dem Maße durchsetzen, außer vielleicht noch Nordrhein-Westfalen als bevölkerungsstärkstes Bundesland und der Abhängigkeit von der Kohle bei der Strompolitik.

Oftmals geht es auch gar nicht um Interessen sondern nur um Gepolter um sich wichtig zu machen bei Wählern die ihren größten Teil ihrer Freizeit offensichtlich am Stammtisch verbringen.

Kohl hat Strauss angedroht die CDU würde eine Landesgruppe in Bayern aufmachen als dieser ihm zu unbequem wurde. Heute würde ich mir wünschen dass er das getan hat, aber man kann das ja noch nachholen. Im Gegenzug könnte die CSU sich auch im Bundesgebiet ausbreiten. Doch das ist wohl nicht mal von der CSU gewünscht. Denn dann müsste man sich auch den Interessen der anderen Landesgruppen stellen anstatt eine Ein-Partei-Ein-Bundesland Positionen zu vertreten. Die CDU könnte profitieren indem sie nicht mehr so abhängig von der CSU wäre. Sie wird aber zu recht befürchten dass es langfristig zu Spaltung kommen wird: In Bayern wird man wohl eine Menge Stimmen bekommen die vorher die CSU abfischte, dafür verliert man in den anderen Bundesländern. Bei dem Profil der CSU wird sie die Wähler am rechten Flügel der CDU ansprechen. Es kann dann zum gleichen Effekt wie bei der WASG/PDS kommen: Die SPD hat zuerst Wähler an die Grünen verloren und dann noch an die linken Parteien, seitdem liegt ihr Stimmenanteil unter 30%. Umgekehrt wäre dann wohl die große Koalition Dauerzustand, denn ohne rechte und linke Flügel nähern sich die Positionen von CDU und CSU noch stärker an als heute schon. Schon jetzt ist ja auffällig dass es mehr Krach bei Themen zwischen CDU und CSU als zwischen CDU und SPD gibt. Auch als aktuelles Thema: die CSU greift Merkel wegen ihrer Flüchtlingspolitik an und die SPD lobt sie. Besser kann man die Situation nicht beschreiben.

8.10.2015: Meine zwei bevorzugten Discovery Missionen

Derzeit entscheidet die NASA über die nächste Discovery Mission, eventuell könnten es auch zwei werden. Die fünf Kandidaten die in die End Auswahl gekommen sind, sind folgende:

Deep Atmosphere Venus Investigation of Noble gases, Chemistry, and Imaging (DAVINCI) 

Eine Venus Landekapsel die während des 63-minütigen Abstiegs chemische Untersuchungen der Atmosphäre macht. Sie soll nach Interkationen zwischen Boden und Atmosphäre und Spuren vulkanischer Gase suchen. Ob die Venus aktiv ist wird seit langem diskutiert, leider erlaubt die dicke Atmosphäre aus dem Orbit nur indirekte Untersuchungen die nicht so deutlich sind wie man sie sich wünscht.

The Venus Emissivity, Radio Science, InSAR, Topography, and Spectroscopy mission (VERITAS)

VERITAS würde dort fortfahren wo Magellan stehen blieb und mit Radar die Topographie, Deformation und mit einem zweiten Instrument die chemische Zusammensetzung erforschen. Das 6-Kanal-Spektrometer soll von der DLR stammen.

Psyche

Psyche ist eine Mission zu dem gleichnamigen Asteroiden. Anders als die bisher untersuchten Asteroiden besteht er aus metallischen Elementen. Solche Asteroiden sind extrem selten Psyche soll nach gängiger Lehrmeinung durch Kollisionen mit anderen Asteroiden entstanden sein und stellt so den Kern eines Protoplaneten dar.

Near Earth Object Camera (NEOCam)

Ein Satellit der mit einem 50 cm Teleskop innerhalb von 4 Jahren zwei Drittel aller NEO-Asteroiden über 140 m Durchmesser finden soll.

Lucy

Lucy soll als erste Raumsonde die Trojaner erforschen, das sind Asteroiden die durch Jupiter in einen Liberationspunkt gezwungen wurden und nun 60 Grad vor und nach Jupiter auf dessen Umlaufbahn gelandet sind.

Zuerst mal eine Einstufung nach Chancen. Ich denke NEOCAM hat relativ gute Chancen. Den es gibt ein Kongressmandat dass die NASA 90% aller NEO möglichst bald finden soll. Zudem hat die Sonde nur ein Instrument und wird relativ nahe der Erde im L1-Librationspunkt untergebracht. Das begrenzt die Kosten.

Psyche geht zu einem wirklich interessanten Asteroiden. Gut ich halte nicht so viel von den Missionen, aber das die metallischen Körper sich von den anderen stark unterscheiden liegt auf der Hand. Dann hätte man auch alle Hauptklassen der Asteroiden mit einem Vertreter zumindest mal untersucht. Vom wissenschaftlichen Aspekt gesehen, sicher ein heißer Kandidat.

Lucy hat zwei Mankos. Das eine ist dass sie weit hinaus ins Sonnensystem geht. Selbst wenn sie Solarzellen anstatt RTG einsetzt wird sie dadurch teuer sein. Die Mission dauert lange, man braucht eine sehr teure Trägerrakete und die großen Antennen des DSN. Die Kosten sind daher sicher vergleichbar mit Juno. Das zweite Manko ist dass man damit rechnen kann, dass sich die Trojaner nicht so sehr von den von Jupiter eingefangenen Monden unterscheiden. Es wäre also als Alternative auch möglich diese zu untersuchen - und den Jupiter gleich mit.

Bleiben noch VERITAS und DAVINCI. VERITAS sehe ich in einer schwachen Position. Die Sonde setzt zwar die Bemühungen von Magellan fort, wird aber in ihrer nur 220 km hohen Umlaufbahn viel Treibstoff brauchen um den Orbit zu erreichen. Das macht sie teuer. Trotzdem wird die mittlere Auflösung nur bei 30 m liegen - da wäre heute durchaus mehr drin. Magellan lag bei 75-110 m. Das ist zwar dreimal besser, aber Radarsatelliten im Erdorbit erreichen heute 1 m und darunter.

DAVINCI wäre sicher sinnvoll. Die letzte Landesonde zur Venus gab es 1985. Die letzte US-Sonde 1978, keine US-Sonde hat jemals Bilder von der Oberfläche gemacht. Die Instrumentelle Analytik ist seitdem fortgeschritten, man kann Gase heute in kleinsten Spuren nachweisen und dank JPEG-Komprimierung auch noch einige Bilder mit hoher Auflösung in diesem kurzen Zeitraum übertragen. Was gegen die Sonde spricht, ist neben der Zurückhaltung der NASA bei Venusmissionen, dass man viel Geld investiert in eine Sonde die nur 63 Minuten lang arbeitet. So was war bisher nicht so beliebt. Bei Cassini stellte die ESA Huygens, bei Galileo war die Atmosphärensonde nur eine Mitnahmenutzlast. Lediglich Pioneer Venus Multiprobe waren dezidierte Sonden die nur landen sollten - dafür aber auch gleich vier, das bringt mehr Ergebnisse pro Dollar, weil die Entwicklungskosten sich so auf vier Exemplare aufteilen.

Auf Basis dieser Einschätzung würde ich auf Psyche und Neocam als nächste Discovery Missionen tippen. Ich selbst würde lieber die beiden Venus Sonden sehen. Die Venus ist ein meiner Ansicht nach vernachlässigter Planet. Obwohl unser Nachbar und leicht zu erreichen. Nur weil die Bedingungen an der Oberfläche so extrem sind. Gerade aber auch deswegen interessant. Und sei es nur zu wissen wie der Treibhauseffekt außer Kontrolle geraten kann, eine Erkenntnis die nicht ganz uneigennützig ist. Allerdings stapeln beide Vorschläge zu tief. VERITAS könnte mit K-Band Kommunikation und Datenkomprimierung wesentlich mehr Daten übertragen und bei Verzicht auf die gleiche Oberflächenabdeckung pro Tag und Zwischenspeichern der Daten könnte man die wechselnde Distanz (zwischen 42 und 258 Millionen km) zum Vorteil nutzen. Dann kommt man nicht auf 30 m Auflösung sondern den Bereich einiger Meter. Davinci ist interessant, doch wenn man bedenkt, dass selbst die kleinste verfügbare US-Trägerrakete 3 t zur Venus entsendet, dann könnte man wenn man von 200 kg pro Sonde (in der Größenordnung liegt die Kapsel von Venera D) ohne Problem vier bis fünf Kapseln absetzen. Angesichts dessen das die Entwicklungskosten meist zwei Drittel der Kosten des ersten Exemplars ausmachen und mit jedem weiteren aufgrund des Gesetzes der Serie diese auch noch billiger werden, ist dies sicher eine bessere Lösung. Das wäre dann eher eine Art "Pioneer Venus reloaded".

Bilder von der Venusoberfläche - ein Kommunikationsproblem

Wenn man eine Kapsel zur Venusoberfläche absetzt, dann hat man ein Problem: Sie wird nicht lange leben. Man muss also die Daten "life" übertragen. Dazu verwendet man Rundstrahlantennen. Die Übertragung geschieht über einen Orbiter oder vorbeifliegenden Bus der seine Position ändert und am Fallschirm baumelnd oder auf dem Boden aufgesetzt kann man nicht vorhersagen wohin eine Richtantenne zeigen würde. Die Datenraten sind daher gering. Ich habe einige von Landekapseln hier mal zusammengefasst:

Sonde Datenrate Distanz Sendeleistung
Pionier Venus Hauptsonde 256 Bit/s 209 Millionen km 40 Watt
Pionier Venus Nebensonden 64 Bit/s 209 Millionen km 10 Watt
Galileo Landekapsel 128 Bit/s 214-287.000 km 23 Watt
Huygens 8 kbit/s 60-84.000 km 10 Watt
Venera 9+10 256 Bit/s 209 Millionen km  
Venera 11-14 3072 Bit/s >1500 km  

Vergleichbar mit einer Venus Landesonde sind alle außer Huygens, da der Titan eine wesentlich weniger dichte Atmosphäre hat. Sendet man direkt zur Erde so wird man wie bei Pionier Venus und Venera 9+10 nur wenige Hundert Bit zur Erde übertragen. Das bedeutet man braucht einen Relay. Man nutzte allerdings von den Orbitern nur die Niedrig- und Mittelgewinnantennen zum Empfang. Schon hier liegt eine mögliche Steigerung der Datenrate.

Doch betrachten wir, wie eine Mission die Bilder von der Venusoberfläche gewinnen sollte, im Prinzip funktionieren könnte. Man wird eine, bessere mehrere Kameras in die Sonde einbauen. Beim Abstieg sieht man die Oberfläche, wenn man nach unten schaut, nach der Landung sollte man zur Seite schauen können. Die technische Umsetzung kann unterschiedlich sein, ich würde z.B. eher zu mehreren Kameras mit Weitwinkelobjektiven anstatt einer mit einem Fischaugenobjektiv neigen, da die Abbildungen weniger verzerrt sind. Die Venus ist unterhalb der Wolkenschicht mit Smog bedeckt, die Temperatur steigt bis zur Oberfläche an und ab einer bestimmten Höhe verdampfen auch die letzten Smogteilchen. Wann man die Oberfläche sieht, ist bisher noch nicht geklärt auch nicht ob die dichte Atmosphäre dann die Bilder verschmiert (durch Winde, Turbulenzen etc). Daher wird eine Sonde regelmäßig Aufnahmen machen und eine Elektronik wird die Bilder untersuchen z.B. nach hohen Kontrasten, die von Oberflächenstrukturen herrühren suchen. Sicher ist eines: zuerst werden die Aufnahmen nichts zeigen, dann allmählich taucht die Oberfläche aus dem Dunst auf. so war es auch bei Huygens. Ab dann macht das Übertragen von Bildern Sinn. Rechnet man mit einem etwas längeren Überleben an der Oberfläche, so wird man beim Abstieg mehr Bilder anfertigen als man in Echtzeit übertragen kann. Sie werden dann nach der Landung übertragen, wobei man auch die mit den meisten Details zuerst überträgt. Huygens war dazu leider nicht in der Lage so gibt es mehr Bilder nach der Landung als vorher und sie zeigen alle dieselbe Szene. Nach der Landung folgt dann zuerst ein Panorama des Landeortes. Eventuell zuerst eine Kurzform, später eine mit höherer Auflösung und die zwischengespeicherten Bilder.

Was gegeben sein muss, ist das man über die zu erwartende Betriebszeit Funkkontakt zum Orbiter hat. Bei Venera 13+14 flogen die Buse z.B. an der Venus vorbei als die Sonden noch aktiv waren. Daher ist ihre "Lebensdauer" auch kleiner als bei Venera 11+12. Das sind vom Eintritt in die Atmosphäre gerechnet rund 1 Stunde bis zur Oberfläche, länger als zwei Stunden hat noch keine Sonde auf der Oberfläche gearbeitet, mit 4 Stunden Funkkontakt ist man also auf der sicheren Seite.

Die offensichtlichste Möglichkeit ist die die Sonde durch einen Bus abzusetzen, der die Venus passiert. Das ist eine sehr gute Lösung wenn es nur eine Landesonde gibt. Dann kann der Bus seine Hochgewinnantenne auf die Landestelle ausrichten und eine hohe Datenrate erreichen. Bei mehreren Landesonden wird es problematisch. Zum einen ist das Abtrennen deutlich komplexer, zum anderen muss man die Daten von mehreren Sonden zeitgleich empfangen. Das geht mit dem schmallbandigen Empfänger an Bord der Hochgewinnantennen nicht mehr, doch diese sind auch so nicht mehr nützlich weil die Landegebiete tausende von Kilometern auseinander liegen können. Eine Mittelgewinnantenne mit einem Breitbandempfänger ist dann sinnvoller. Dadurch sinkt aber die Datenrate. Sie wird auch nicht so groß sein, weil die Distanz höher ist. Die Antenne muss die Daten aller Stationen empfangen können, was eine Minimaldistanz von mindestens der größten Entfernung der Landepositionen der Sonden voraussetzt, typisch also 5000 bis 10000 km. Eine nahe Passage in 1000 km Entfernung und damit hoher Datenrate ist so nicht möglich. Doch für eine hohe Datenrate müsste man eh eine dynamische Anpassung dieser an die Entfernung vorsehen. Technisch kein Problem, entweder gesteuert durch einen Timer oder den Empfang eines Referenzsignals des Buses und bestimmen dessen Signalstärke. Der Effekt ist enorm. Nimmt man eine typische Annäherung an die Venus mit 2,7 km/s und eine Minimaldistanz von 2000 km an, so ist die Sonde 4 Stunden vorher noch 73.000 km entfernt. Das ist die 36-fache Entfernung miteinhergehend mit einer Reduktion der Datenrate auf 1/36².

Eine konstante, gleich hohe Datenrate erhält man von einem Orbiter aus. Wenn er nur die Sonden absetzen soll, wird er sich in einer elliptischen Umlaufbahn befinden, auch um den Treibstoffbedarf zu minimieren (er muss ja auch die Sonden mit in einen Venusorbit absetzen). Empfängt er die Daten in dem Apogäum, so bleibt die Distanz über längere Zeit fast unverändert und auch die Position gesehen von der Oberfläche. Bedingt durch die Umlaufbahn wird die Sonde aber nur eine bestimmte Bahn auf der Oberfläche erreichen können, über die der Orbit läuft. Bei geeigneter Bahnneigung und längerem Warten ist aber auch so die ganze Oberfläche erreichbar. Dafür gibt es ein anderes Problem. Wenn die Sonde abgetrennt wird, würde ihr der Orbiter bald auf der Bahn folgen. Sie wird also zuerst nur die Bahn leicht verändern, aber in einer Umlaufbahn bleiben. So ergibt sich über längere Zeit eine größere Distanz bis man die gewünschte Kommunikationsdistanz erreicht hat. Erst dann zündet man ein Raketenantrieb nochmals um in die Atmosphäre einzutreten. Das erste Manöver kann der Orbiter durchführen, das zweite muss in jedem Falle die Landesonde durchführen. Zwischen beiden können Tage liegen. Während dieser Zeit muss aber die Sonde in ihrer Lage stabilisiert sein, sonst zeigt der Antrieb in die falsche Richtung. Das ist also ein ziemlich heikles Manöver und es macht die Eintauchsonde deutlich komplexer als eine einfache unstabilisierte Kapsel die von einem Bus abgesetzt wird.

Der Orbiter mit mehreren Sonden ist daher nicht so attraktiv wie es aussieht, auch weil man viel Treibstoff braucht um jede Sonde erst mal in einen Orbit zu bringen.

Ein Lösung aus dem Dilemma könnten Ballone sein, die nicht nur für Messzwecke abgesetzt werden, sondern auch Daten sammeln. Die Ballone an Bord von Vega 1+2 arbeiteten 50 Stunden lang in 50 km Höhe. Warum die Betriebsdauer beschränkt war, ist nicht genau bekannt. Einige sprechen von erschöpften Batterien, andere von Platzen nach dem Erreichen der Sonnenseite. Ein Ballon könnte über Tage, vielleicht Wochen arbeiten. Damit hätte er die Möglichkeit viel mehr Daten zum Orbiter übertragen als die Landesonde direkt durch die geringe Distanz erhöht er auch die Datenrate von der Sonde, verglichen mit dem Orbiter. Vor allem aber offeriert ein Ballon eine Lösung aus dem Dilemma, dass ein Orbiter ohne komplexe Manöver bald die Landestelle in niedriger Höhe überfliegt. Ein Orbiter könnte so im Aphel die Bahn absenken, die Landesonde absetzen und sofort wieder anheben. Er passt das Perigäum, während die Landesonde in die Atmosphäre eintaucht und landet. Daten empfangen kann dann nicht da er schnell das Landegebiet in nur 200 km Höhe überquert. Doch ein Ballon kann die Daten zwischenspeichern und später übertragen.

Das Problem des Ballons ist, dass die Venusatmosphäre in den Höhen wo die Bedingungen erdähnlich (hinsichtlich Temperatur und Druck sind) rasch rotiert. Die Vega Ballone blieben in 50 km Höhe. Dort herrschen +75°C und 1,066 Bar. Nach den Messungen von Venus Express beträgt die Windgeschwindigkeit bis zu 70° Breite dort 60 m/s. In den 4 Stunden die eine Sonde maximal arbeiten soll bewegt sich der Ballon also um 864 km weiter. Dann befindet er sich nur noch 3,3 Grad über dem Horizont und das Signal wird sicher von Hügeln oder Bergen absorbiert. Selbst bei 2 Stunden ist sie schon auf 6,6 Grad Höhe angekommen. Je tiefer man geht desto geringer werden die Windgeschwindigkeiten. Nach den Pionier Venus Messungen nehmen die Winde unterhalb von 40 km Höhe ab, doch schon in 40 km Höhe herrscht schon eine Temperatur von 143 Grad Celsius, wahrscheinlich zu viel für die Elektronik. So sind derzeit Ballone auch noch keine Lösung.

Doch bei der Landesonde kann man auch etwas optimieren. Anstatt einer Rundstrahlantenne kann man mehrere Mittelgewinnantennen einsetzen, die sich überlappen. Denkbar wären z.B. sieben mit je 60 Grad Öffnungswinkel. Eine oben, sechs in einem Kreis darunter angeordnet. Sie decken damit einen Halbkreis ab. Jeder Sender ist mit einem Empfänger gekoppelt. Der Empfänger der das stärkste Referenzsignal, das vom Bus/Orbiter ausgesandt wird empfängt, wird die Daten senden. Da man so mehr Antennen, Sender und Empfänger braucht ist dieser Technik Grenzen gesetzt. Aber einige sind gewichtsmäßig tolierbar und so kann man die Datenrate um einen Faktor 2-6 erhöhen, je nach Anzahl der Antennen.

Beim Empfänger profitiert man größeren Antennen. Venussonden haben meist kleine Sendeantennen von 1-1,5 m Durchmesser. Sie reichen aus, weil die Venus nie weiter als 250 Millionen km von der Erde entfernt ist. Größer ist besser aber auch schwerer. Große Antennen haben meistens Sonden ins äußere Sonnensystem, daher wäre mein favorisiertes Vorgehen, immer wenn eine Raumsonde ins äußere Sonnensystem aufbricht und das geht heute sowieso durch Erde/Venus-Swingbys und selten direkt, eine Landesonde zur Venus mitzunehmen und dort abzusetzen. Das scheitert leider bei der NASA an der Art wie Sonden vergeben werden. Immer als Komplettpacket an einen primären Auftragnehmer sowohl auf industrieller wie wissenschaftlicher Seite. Bei Experimenten geht die Beteiligung auch bei ausländischen Missionen schon. Zeit wäre es das auch auf die Sonden zu übertragen. Dann stammt eben die Hauptsonde vom einem Programm und die Absetzsonde von einem anderen. Missionen ins äußere Sonnensystem sind nicht so häufig, doch seit Pionier Venus haben Galileo und Cassini die Venus passiert. Juno hätte anstatt einem Erdswingby auch einen Venusswingby machen können und Messenger flog ebenfalls an der Venus vorbei. Das waren vier Startgelegenheiten in den letzten 26 Jahren. Jede hat man aber verstreichen lassen. Schade drum.

11.10.2015: Schummelprogramme

Der Skandal um VW hat nun ja Wellen geschlagen und er veranlasst mich zu meinem Blog über Programme die ein sagen wir mal etwas geschöntes Bild der Wirklichkeit bieten. In der Automobilindustrie ist dass vielleicht die Ausnahme, vielleicht auch die Regel, das wird sich zeigen, aber in der Informationstechnologie ist es die Regel. Hier mal einige Beispiele von "Schummelprogrammen".

Schon zu DOS Zeiten ging das los. Spätestens als der IBM AT erschien brauchte man einen Benchmark um die Computer zu vergleichen. Sehr bald etablierte sich der Norton Sysinfo Index (SI) als Maßstab. Die Norton Utilities hatten ein Programm das neben Systeminformationen auch einen Geschwindigkeitsindex relativ zum IBM PC (1.0). Einige (von Herstellern gepatchte) DOS-versionen erkannten das Programm und verstellten den Systemtimer der zur Zeitmessung diente. Diese Maßnahme ist eigentlich nicht nötig, denn das Programm selbst kann man als Schummelprogramm einstufen. Die Programmierer haben es sich sehr einfach gemacht und die Messung erfolgt in einer kleinen Schleife. In dieser kamen zwei Befehle vor für die der 8086 sehr lange brauchte: IMUL und IDIV. Diese Befehle kamen in normalen Programmen relativ selten vor und die Nachfolger des 8086 beschleunigten gerade diese sehr stark. So hatte ein 8086 bei gleicher Taktfrequenzeinen SI-Wert der sechsmal höher als beim IBM PC war. In Wirklichkeit war er aber nur etwa dreimal schneller.

Mit Windows gerieten dann auch die Grafikkarten ins Visier der Trickserei. Hier wurde bald ein Benchmark der Ziff-Davis-Gruppe bedeutend die in den USA viele Computerzeitschriften herausbrachte. Sehr bald erschienen Grafikkarten die erkennten dass man immer die gleichen Operationen durchführte und sie bei einer schleife nur einmal durchführten und danach nur noch die letzten Ergebnisse anzeigten. Beim Anzeigen von Text benutzten einige bei dem immer gleichen Text sogar oft ein vorgerendertes Pixelmuster wiedergaben. Änderte man nur einen Buchstaben so brach die Performance enorm ein.

Das setzte sich bei den 3D-Fähigkeiten fort. Hier fragten die Treiber den Dateinamen ab und ersetzten die Ausgabe des Programms durch eine vorher berechnete. Benannte man die Benchmarkprogramme um, so fiel es schon auf. Das Schummelprogramm für mich schlechthin ist "Softram 95", für das die ct' die den Skandal aufdeckte die Bezeichnung Placebosoftware erfand. Als Windows 95 erschien hatten die meisten Rechner zu wenig RAM. Windows 95 brauchte etwa 16 MB um flüssig zu laufen, da damals RAM durch eine Verknappung der Produktion teuer war, hatten selbst neue Computer nur 8 MB.  Syncronys Softcorp der Hersteller brachte nun das Programm Softram 95 aus, das versprach durch Umschaufeln kritischen Speicher freizugeben und den Speicherinhalt zu komprimieren. In Wirklichkeit vergrößerte es nur die Auslagerungsdatei und bog die Ausgabe der Windows Systemsteuerung über die benutzten Resourcen um, so dass der Anwender sah dass er angeblich mehr freies RAM und Ressourcen hatte.

Geschummelt wird auch heute noch, selbst bei offiziellen Einstufungen. Nehmen wir die Intel-Prozessoren seit der Einführung der iCore Serie vor 5 Jahren. Glaubt man Intel, so haben sie seitdem mit jeder Generation um durchschnittlich 25% an Geschwindigkeit zugelegt. Schaut man sich das reale Verhalten von Anwendungsprogrammen an, so merkt man nichts davon. Skylake ist nach ersten Ergebnissen nur noch 1-3% schneller als die letzte Generation Broadwell. Der Grund liegt in der Berücksichtigung von neuen Befehlen die z.B. Verschlüsselungsoperationen oder im wissenschaftlichen Bereich wichtig die AVX Befehle. Die findet man auch im Linpack Benchmark der für die Einstufung der Performance bei Supercomputern genutzt wird. Er ist extrem prozessorfreundlich und in ihm ist die wichtigste Operation eine Matrixmultiplikation. Weiß man dass selbst bei den Intel-Compilern eine Matrixmultiplikation durch den Compiler übersetzt viermal langsamer abläuft als die Bibliotheksfunktion so weiß man wo da geschummelt wird. Nichts gegen optimierte Bibliotheken, doch im täglichen Leben kann man eben nicht nur Bibliotheken nutzen. Auf der anderen Seite ist die x64 Architektur weitestgehend durchoptimiert. Die Änderungen in den letzten Generationen sind eher klein und so auch der Gewinn. Intel konzentriert sich inzwischen mehr auf andere Aspekte wie Energieeffizienz und die Performance der integrierten Grafik die weitaus stärker in den letzten Jahren an Geschwindigkeit zulegte (allerdings auch nur durch mehr Shadereinheiten).

Zurück zu VW. Das es hier Jahre dauerte bis der Trick herauskam (installiert wurde die Software schon 2008) liegt an zwei Dingen. Das eine ist die Computerarchitektur eines PKW, das andere das Testverfahren. Auch wenn heute ein Mittelklassewagen mehrere Dutzend Steuergeräte beinhaltet ist es keine saubere Umgebung. Jedes Gerät kann von einem anderen Zulieferer stammen. Sie kommunizieren über den CAN-Bus aber jeder versteht nur bestimmte Botschaften, es gibt also kein gemeinsames Protokoll. Daneben versucht die gesamte Industrie Sicherheit durch Obfuscation zu bekommen, also indem sie nicht offenlegt wie etwas funktioniert. Der Kilometerstand ist z.B. nicht so abgesichert, dass er nur hochgezählt werden kann wenn sich das auto bewegt, sondern als Wert abgelegt - zur Sicherheit vor Fälschung aber mehrmals an verschiedenen Stellen. Letztes Jahr deckte die ct auf, dass die Kommunikation zum Entsperren des Wagens mit diesem Pieper auch wichtige Zugangsdaten für weitere Subsysteme übermittelte - super geeignet um den Wagen zu starten und zu klauen.

Das zweite war das Messverfahren. Soweit ich informiert bin musste sie Schummelsoftware nicht besonders komplex sein. Ein Abgastest auf einem Prüfstand zeichnet sich durch zwei Dinge aus die im normalen Betrieb nicht vorkommen: Das Lenkrad wird nicht bewegt und es bewegen sich nur die Vorderräder wo der Antrieb sitzt. Nun kann auf einer langen geraden Strecke das Lenkrad nicht bewegt werden, aber dann bewegen sich die Hinterräder. Es kann bei einem feststehenden Wagen der im Schlamm steckt sich die Vorderräder durchdrehen, doch dann wird man das Lenkrad drehen um herauszukommen, vor allem aber wird man so nicht lange den Motor betrieben, weil man sonst nur noch tiefer in den Schlamm kommt. Es reichte also beide Dinge festzustellen um zu "schummeln". Bewegte man bei den Tests nur das Lenkrad so gab es schon realistische Werte.

Meine Kritik richtet sich aber gegen diese synthetischen Tests genauso wie synthetische Computerbenchmarks. Schon lange weiß man dass die Verbrauchsdaten von Neuwagen viel höher sind als die Herstellerangeben. Ein Test mit einem neuen Gold und einem uralten Golf II im Mix von Stadt und Autobahn ergab dass der Golf II sparsamer war, obwohl die Herstellerangaben etwas anderes aussagten. Der einfache Grund: Bei den Tests wird kein Verbraucher zugeschaltet, keine Heizung, keine Klimaanlage, keine Scheinwerfer, nur der Motor läuft. Die brauchen heute aber eine Menge Energie. Daneben wiegt ein neuer Golf erheblich mehr als der Golf II. Realistisch wäre das Messen eines Profils auf einer realen Strecke durch die Stadt und die Autobahn, gerne auch mit Staus, die soll es im wirklichen Leben auch geben, in jedem Falle aber mit Ampelstopps und Überholmanövern. Sicher schwanken so je nach verkehr die Meßwerte, doch dann wendet man das an was man immer in solchen Fällen tut: man wiederholt die Messungen und bildet Mittelwerte. Es ist aber in jedem Falle aufwendiger als das Auto einfach auf den Prüfstand zu stellen. Geschummelt wird auch so. Neben dem Messen ohne Verbraucher dürfen für den Gesamt CO2-Ausstoß ihrer Flotte die Hersteller auch die Elektroautos hinzunehmen und die haben per Definition keinen CO2-Ausstoß und werden sogar mit dem Faktor 1,5 bewertet: 1 Million Elektroautos entsprechen so 1,5 Millionen Autos ohne Kohlendioxydemission die für den Mittelwert aller Wagen hinzugenommen werden. Angesichts der wenigen Elektroautos die in Deutschland produziert werden, nützt das aber vor allem den ausländischen Herstellern. Von den 2014 zugelassenen wurden übrigens mehr als die Hälfte von den Fahrzeugbauern selbst zugelassen - tja so senkt man seine Abgasemissionen....

Zuletzt noch zum Schummeln selbst. Die prinzipielle Reduktion der Stickoxyde erfolgte nach VW-Angaben durch einen Sammelbehälter der sie sammelte und periodisches Einspritzen von Kraftstoff zur Nachverbrennung in dem Behälter. Das sie funktioniert zeigen ja die niedrigen Messungen im Prüfstand. Warum wird es dann nicht immer so gemacht? Zwei Erklärungen gäbe es: entweder steigt so im Routinebetrieb der Kraftstoffverbrauch unmäßig an, was auch nicht gewünscht ist oder das geht nur so solange es kurzzeitig erfolgt, dauerndes Einspritzen und Nachverbrennen konnte den Behälter, einen umgerüsteten Katalysator wohl überhitzen und beschädigen. Immerhin will VW ja nun das Problem hardwaretechnisch lösen und nicht nur durch ein Softwareupdate. 

 
Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99