Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 414: 6.2.2015 -

6.2.2014: Die unglaubliche Wahrheit hinter der Mondverschwörung

Verschwörungstheorien haben einen besonderen Reiz. Es gab sie schon immer, manche wurden sogar zur Staatsdoktrin: "Das Finanzjudentum will die westliche Gesellschaft in einen zweiten Weltkrieg stürzen", das ist so eine Verschwörungstheorie die zur Maxime des dritten Reiches wurde. In ähnlicher Weise bestimmte der Glaube daran, dass der Kommunismus die Weltherrschaft anstrebte und dabei ein Land nach dem anderen "umdreht", die Politik der vereinigten Staaten.

Doch viel populärer sind die Theorien über Area 51, 911 und natürlich die niemals stattgefundene Mondlandung. Zumindest bei letzteres gibt es eine neue Erklärungsmöglichkeit, warum sie so populär ist, die der Journalist James Gibson in einem Artikel in der Washingtoner Post veröffentlicht hat. Demnach hat die NASA die Verschwörungstheorie zwar nicht erfunden, aber massiv gepusht.

Alles fing an als der Astronaut Jeffray Hoffmann 2002 von Filmemachern gebeten wurde an einem Film über die NASA und die Mondlandung mitzuarbeiten. Er war ziemlich überrascht als er das fertige Ergebnis zu sehen bekam: Er hat neben einem Dutzend anderer Prominenten an dem Film "Kubrik, Nixon und der Mann im Mond" mitgewirkt. In diesem wird als "Dokumentation" die These aufgestellt die gesamte Mondlandung wäre von Kubrik aufgrund von Nixons Anweisungen in einem CIA Studio gedreht worden.

Er lachte sich schlapp "Can't stop laughing", wie er selbst sagte und als ihn selbst Bekannte fragten, ob dies denn nicht die Wahrheit sei, schließlich hätten ja Prominente und er in dem Film mitgearbeitet, negan er sich den Film zusammen mit anderen Mitarbeitern des MIT, bei dem er nun arbeitete, nochmals genauer anzuschauen und zwar unter professionellen Aspekten. Sie fanden das Werk hervorragend gemacht, filmtechnisch sauber umgesetzt und die Schnitttechnik machte die Story nicht nur extrem glaubwürdig, sondern führte auch zu einem klassischen Spannungsbogen. Wie armselig waren dagegen die von Verschwörungstheoretikern vorgebrachten Mondtheorien, die nahm niemand bei der NASA wirklich ernst so laienhaft waren deren Argumente, waren leicht entkräftbar.

Hoffmann, der auch politisch aktiv war bestürzt wie die Bushregierung die Ereignisse von 9/11 nutzen konnte, um die USA in den Irakkrieg zu drängen, obwohl Hussein nichts mit den Anschlägen auf das Worrld-Trade Center zu tun hatte. Er überlegte, ob man nicht mit einer wesentlich glaubwürdigeren Mondverschwörung nicht auch die Regierung dazu bringen könnte, erneut ein Mondprogramm zu starten und beriet sich mit dem damaligen NASA Administrator Sean O'Keefe, zu dem er durch seine frühere Astronautentätigkeit persönlichen Kontakt hatte. Er schlug vor, eine kleine Gruppe daran zu setzen, das NASA Bildmaterial nach Aufnahmen zu durchforsten die man im Sinne der Mondverschwörung nutzen konnte. Sehr bald wuchs die Gruppe an. Andere sichteten die Audioprotokolle, wieder andere machten sich Gedanken über Gegenargumente und nicht visuelle Phänomene. Mitte 2003 hatte die Gruppe nach einjähriger Arbeit genug Material zusammen und hatte die Archive weitgehend durchdorstet.

Nun begannen sie unter Fake-Accounts bekannte Mondlandungsverschwörer wie den damals noch lebenden Bill Kaysing anzuschreiben und auf die "neuen Beweise" hinzuweisen. Andere veröffentlichten die Erkenntnisse auf privaten Webseiten, die man unter dem Namen von Verwandten eingerichtet hatte. Die PR-Aktion war erfolgreich. Innerhalb eines Jahres wurde die Moon Hoax Theorie so populär wie nie zuvor. Es erschien die BBC Dokumentation "Conspiracy Theory: Did We Land on the Moon?" und Gerhard Wisnewskis Buch "Die Akte Apollo" basierend auf den Erkenntnissen.

Die Sache schlug Wellen und schließlich hörten auch Bushs Berater davon. Besonders Donald Rumsfeld, der schon unter Nixon im Kabinett war, ärgerte sich darüber dass man so die Mondlandung verunglimpfte und besonders darüber, dass Nixons Gespräch mit den Apollo 11 Astronauten auch bei den "Beweisen" war. Die Berater mit Rumsfeld an der Spitze drängten George W. Bush dazu ein neues Mondprogramm zu beginnen. Die ISS sei nun fast fertig und es wäre nun an der Zeit ein neues Unternehmen zu beginnen. Der Mond wäre erreichbar. Es wäre eine Expedition die mit den heutigen Mitteln durchführbar wäre und auch mit geringen zusätzlichen Mitteln finanzierbar wäre. Sie konnten Bush Überzügen das Constellation Programm zu initiieren, das er Anfang 2004 ankündigte.

Danach hatte die Gruppe ihre Schuldigkeit getan und konnte daran gehen die Spuren zu verwischen. Die Webseiten waren schnell offline. Doch es gab zwei andere Probleme. Zum einen hatte sich die Verschwörungstheorie verselbstständigt. Seitdem gibt es immer mehr private Webseiten, Bücher und Fernsehdokumentationen zu dem Thema. Es war einfach zu verlockend als Thema und mit jeder Fernsehberichterstattung wuchs die Zahl der Verschwörungstheoretiker weiter.

Als der Raumfahrtjournalist James Oberg aufgrund der Publicity anbot sich des Themas ernsthaft, wissenschaftlich und ingenieurstechnisch zu untersuchen, gab ihm die Öffentlichkeitsabteilung der NASA den Auftrag dazu. Diese war nicht eingeweiht worden. Dies rückgängig zu machen war nicht so einfach, denn es handelte sich nicht um ein Riesenprojekt sondern 250.000 Dollar und den Zugang zu den Archiven. Doch dort wäre Oberg mit Sicherheit auf die Arbeit der "internen Moonhoaxer" gestoßen. Deis musste unbedingt verhindert werden. Nun war die Absicht schon an die Öffentlichkeit gedrungen und Zeitungs- und Onlinekommentatoren fanden es gut, dass die NASA endlich etwas gegen die Verschwörungstheorie tat. So einfach abblasen konnte man es nicht. So wandte man sich an Kongressabgeordnete und indoktrinierte diese, bis diese sich in ihrem Sinne regten: Das wäre Verschwendung von Steuergeldern. Mehr noch, es wurde der NASA verboten, sich weiter zu dem Thema zu äußern.

Auch wenn Constellation inzwischen eingestellt wurde, so ist ein Ziel der Orion und Ares doch der Mond, auch wenn man nicht landen will. Gelohnt hat sich die Initiative also sicher. Herauskam sie wie fast immer durch einen Zufall. James Gibson wollte einen Report schreiben wie sich die PR-Ausgaben der NASA auf die einzelnen Programme verteilen, da schon bekannt war, dass diese nicht gleichmäßig verteilt sind. Da stieß er auf den Posten "Moon-Landings Preparation" den es nur von 2002 bis 2004 gab und der zu keinem Programm passte. Unterlagen sollte es angeblich keine geben, doch als sich Gibson auf den "Freedom of Information Act" beruft, musste die NASA die Abrechnungen offenlegen und damit kam der Skandal ans Licht.

Was noch nicht klar ist, ist ob dies nur eine einmalige Angelegenheit ist oder Regierungsbehörden auch bei den anderen Verschwörungstheorien aktiv die Verbreitung unterstützt haben, und wenn ja aus welchen Gründen.

7.2.2015: Der bisher wichtigste Falcon 9 Start

- zumindest meiner Meinung nach - findet morgen statt. Von Vandenberg aus wird eine Falcon 9 die Raumsonde DSCOVR starten. An diesem Start ist einiges außergewöhnlich. DSCOVR wurde als Tirana schon 1998 geplant. Ausgangspunkt der Initiative war die Vorstellung des damaligen Vizepräsidenten Al Gore, das ein dauerndes Lifebild der Vollerde den Umweltschutzgedanken fördern könnte. Er war beeindruckt von den Aufnahmen von Apollo 17, die erstmals die Vollerde als "Blue Marble" zeigten. Die NASA sollte eine Raumsonde entwickeln, die genau dies macht. Damit dies geht, muss sie im Librationspunkt L1 positioniert sein. Das Projekt wurde jedoch zu teuer und bald gab es auch Kritik an der Konzeption als "enorm teuren Bildschirmschoner". Die NASA lagerte die Raumsonde dann 2002 ein. Einige Jahre später überprüfte man die Systeme und suchte nach einem Weg sie trotzdem noch zu starten. Es traf sich gut das eines der Instrumente die solare Partikelstrahlung überwachte. Die NOAA nutzte seit 1997 den ACE Satelliten um Frühwarnungen im Falle eines Sonnensturms abzugeben. DSCOVR versprach hier eine preiswerte Ablösung des alternden Satelliten, denn es fehlte nur noch ein Start. Die USAF wiederum suchte einen Weg, dem politischen Druck nachzugeben SpaceX Aufträge zu erteilen, ohne dass man das Risiko hatte eine wertvolle Nutzlast zu verlieren. Da traf es sich gut, das DSCOVR eigentlich fertig war, aber man bei der NASA nicht das Geld für einen Start hatte. So hat die Raumsonde drei Väter: Die NASA hat die Raumsonde gebaut, die USAF führt den Start aus und finanziert ihn und die NOAA betreibt die Sonde und finanziert den laufenden Betrieb.

Heute ist in den Schlagzeilen keine Rede mehr von den Aufnahmen der Sonde und einem Portal in denen man sie life sehen kann, sondern einem "Space Weather Probe". Es wird interessant sein ob man nun die Aufnahmen tatsächlich zu sehen bekommt, die mal der Hauptzweck der Sonde waren.

In Vandenberg hat übrigens SpaceX nun auch den zweiten Teil von SLC-4 von der USAF geleast und schon im letzten Jahr die alten Starttürme abgerissen. Die Firma wird das zweite Pad wohl für ihre Satellitenflotte brauchen, denn sonst gibt es eigentlich nur wenige Starts auf ihrem Launchmanifest die von Vandenberg aus starten.

Es gibt einige andere Besonderheiten. Es wird auch der erste Start in eine Fluchtbahn sein. Eine Oberstufe wird soweit ich weiß nicht eingesetzt werden. Das ist bei einer nur 600 kg schweren Sonde aber auch nicht nötig. Die Spitzenbelastungen dürften aber selbst bei Schubreduktion sehr hoch sein.

Was DSCOVR nicht mehr ist, ist die Sonde die mal geplant wurde. Damals sollte das Projekt 50 Millionen Dollar kosten. Das basierte darauf dass die NASA die Sonde selbst baute und Universitätsinstitute die Instrumente entwickelten. Gestartet sollte sie mit dem Space Shuttle werden, das ersparte nach NASA-Rechnungssystem die Startkosten. Doch die Industrie wurde von der Industrie gebaut, weil Kritik am Nutzen kam wurden zusätzliche Instrumente hinzugenommen, was die Kosten weiter erhöhte. Als man die Sonde einlagerte, kostete sie schon 100 Millionen Dollar. Das Übertragen der auf USAF machte das ganze dann auch nicht billiger. Alleine die NOAA weist über 100 Millionen Dollar für die Operationen aus. Billig ist die Mission also nicht mehr, sie kostet fast so viel wie die aktuelle Marsmission MAVEN.

Es zeigt übrigens auch wo die Kostentreiber sind. SpaceX verlangt ja nach eigener Webseite 61,2 Millionen Dollar pro Start. Für den Start von DSCOVR sind es aber 96 Millionen. Das deckt sich auch mit den Angaben von SpaceX, wonach ein Start mit der USAF rund 30% teurer als normaler ist, wegen der vielen Daten die diese haben will. (Selbst ich kann mir nicht vorstellen wie das Gewinnen und übergeben von Daten teurer als ein Supercomputer sein kann) und weil die die USAF dann auch noch Kosten hat um das Projekt zu managen und diese Daten auszuwerten macht der Etat der USAF 134,4 Millionen Dollar aus - mehr als die doppelte Summe die SpaceX erhält. Ich vermute das gilt auch für ULA. Über die Kosten der Starts für den Steuerzahler beschwert sich ja SpaceX und ULA hat schon mal verlautbart, dass man eine Atlas 401 für 100 Millionen Dollar produzieren kann, doch wenn man sie nach USAF regeln startet dann kostet ein Start deutlich mehr.

Es wird wieder einen Bergungsversuch geben. Diesmal aber mit weniger Resttreibstoff, zumindest wenn die Zeitangaben in der Timeline stimmen, da man beim letzten Start nach 150 s die erste Stufe abschaltete, diesmal nach 166 s (beim Betrieb bis zum Ausbrennen sind es 180 s).

Der Start ist geplant um 23:12 GMT am Sonntag, das müsste wenn ich richtig rechne um 0:12 am Montag nach deutscher Zeit sein.

10.2.2015: Krimis im Wandel der Zeiten

Seit Anfang des Jahres wiederholt ZDF Neo Columbo, Gelegenheit für mich die Folgen nochmals anzuschauen. Columbo ist keine typische Fernsehserie, das zeigt schon das es 68 Folgen in dreißig Jahren gab. Mir gefällt vieles daran. Die Figur des Inspektors, die ja zumindest kleidungsmäßig auf Schimanski abfärbte, aber eben auch dass es nicht um das übliche Action-Spektakel mit Schießereien und Verfolgungsjagden handelt, das damals in US-Krimis üblich war. Die Filme sind auch sehr ruhig, während man heute ja wie ein Schießhund aufpassen muss, weil Action gefordert ist. Was mir auffiel ist das Columbo im klassischen Sinne niemals den Täter überführt. Er kann ihm nicht den Mord beweisen, es läuft meistens darauf hinaus, das er ihm Widersprüche aufzeigt oder Beweise findet, die ihn mit der Tat zusammenbringen. Der damit konfrontierte gibt auf, anstatt dass er es auf einen Indizienprozess ankommen lässt, denn er vielleicht sogar gewinnt, weil die Beweise oft sehr dünn sind. In einem Fall "Wein ist dicker als Blut" fragt Columbo den Täter sogar "Werden sie gestehen?" denn den Mord kann er ihm nicht nachweisen.

Krimis haben sich sehr gewandelt. Colombo ist der klassische Detektiv, fast könnte man sagen ein moderner Sherlock Holmes, der den Täter durch logisches Nachdenken, Beobachten und Verhören überführt. Technik spielt nur eine untergeordnete Rolle. Heute laufen um die Kommissare ganze Teams der Spurensicherung herum. Mit DNA Spuren wäre wohl jeder von Columbos Fällen schnell geklärt und die gab es eigentlich fast immer. Mich wundert dabei nur, dass die Kleiderordnung der SPUSI mit Ganzkörperanzügen und Überschuhen nicht für die Kommissare gelten. Die KTU darf keine Spuren hinterlassen und die Kommissare trampeln nur mit Latexhandschuhen durch den Tatort, das wäre als wenn man einer Elefantenherde Schuhe anzieht und hofft dass dadurch nichts zertrampelt wird.

Immerhin bildet es mehr die Wirklichkeit ab als früher. Oftmals brechen da Serien Dämme. Gerichtsmediziner gab es schon immer, doch in Krimis kamen sie erst vor als Quincy in den USA und "Der letzte Zeuge" bei uns ein Erfolg wurden. Allerdings scheint es nicht möglich sein, das die Pathologen normale Menschen sind. Sie haben alle komische Marotten, Hobbys oder als Krönung kochen sie Tee in Erlenmeyerkolben neben den Leichen auf dem Bunsenbrenner. In meinem ganzen Chemiestudium habe ich das nie gesehen. Wenn man einen Kaffee oder Tee haben wollte ging man in die Cafeteria, zum Automaten oder in die Kaffeeküche. Niemals wäre es mir in den Sinn gekommen am Arbeitsplatz etwas zu essen oder zu trinken.

Die KTU ist bei uns noch nicht für eine dauerhafte Hauptrolle gut, aber ich denke das wird sich auch noch ändern dank des CSI Booms bei den Privaten.

Neu scheint auch die Nutzung der Technik zu sein, wobei zumindest in den Fernsehserien die Leute bei Computern und Handys Möglichkeiten haben, über die würde die NSA sich sicher freuen. In der SOKO Stuttgart kann man sogar anhand des Kohlendioxidgehalts der Luft feststellen wie viele Leute in einem raum waren - wers glaubt wird selig.

Die Zahl der Krimis ist ja in den letzten Jahren stark angewachsen. Dafür ist die klassische Fernsehserie fast ausgestorben. Leider wird die Landschaft immer mehr zur Einheitskost. Die Serien versprechen Lokalcolerit, aber halten das nicht. Weder in den Schauplätzen, noch mehr und das ist besonders ärgerlich, in der Sprache. Nehmen wir mal die Soko Stuttgart. Keiner der Hauptdarstellung spricht schwäbisch. Das ist auf zwei mehr oder weniger komische Nebenfiguren beschränkt. So könnte die Serie auch in Bielefeld oder Erfurt spielen. Klar für das deutschlandweite Programm wird es nicht möglich sein breiten Dialekt zu sprechen, aber dass man an der Klangfarbe merkt woher die Leute kommen doch sicherlich.

Das zweite ist das es doch recht langweilig ist, denn es geht immer um Mord. Als gäbe es keine anderen Verbrechen. Dabei macht die Dienstälteste Krimiserie, Großstadtrevier doch vor, dass dies nicht sein muss und auch Raub, Erpressung, Diebstahl, die vielen kleinen Delikte durchaus eine Story abgeben. Sehr oft stehen ja auch wie bei den Rosenheimcops die Fälle gar nicht im Vordergrund sondern irgendwelche Nebenhandlungen.

12.2.2015: Ein Vorschlag für die USAF

Der Prozess von SpaceX gegen die Air Force hat ja ein Thema wieder in den Fokus gebracht: die steigenden Startpreise. ULA hat ja schon darauf reagiert, als Elon Musk sich polemisch auf sie eingeschossen hat und verwiesen darauf, dass ihre Träger gar nicht so teuer sind, nur die Starts sind es. Auch SpaceX hat schon die Erfahrungen gemacht: Während man eine Falcon 9 auf der Website für 61,2 Millionen Dollar anbietet, zahlt die NASA für den Start von JASON-3 83 Millionen Dollar (noch abgeschlossen als die Falcon 9 noch 54 Millionen kostete), dieses Jahr kam TESS dazu für 87 Millionen Dollar. Bei der Air Force ist es noch teurer, der Start von DSCOVR kostet 97 Millionen Dollar.

Die Firma hat ja schon angegeben, dass die Bürokratie mit der NASA die Missionen um 20 bis 30 Millionen Dollar verteuert. Das sind bei den Startpreisen der Falcon 30 bis 50%.  Nun war dem nicht immer so. In den sechziger Jahren, als es in dem Sinne noch keine Trägerraketen gab, lief dies so ab (am Beispiel der Thor). Wenn die NASA eine Thor für ihre Thor-Delta brauchte so bekam sie diese von der USAF. Die USAF orderte eine Mittelstreckenrakete von Douglas. Diese Mittelstreckenrakete wurde dann von Douglsas umgebaut zur Trägerrakete für die USAF, die NASA erteilte dann einen weiteren Auftrag zu einer zweiten Umrüstung, so verwendete sie meist ein anderes Lenksystem als die USAF. Da das ziemlich aufwendig war, wurden dann die Träger standardisiert, auch wenn es nach wie vor Air Force und NASA Modifikationen gab, so wurde die Agena Oberstufe z.B. fast nur bei militärischen Missionen eingesetzt.

Noch etwas unterschied sich damals von Heute: Satelliten und auch Raumsonden wurden in der Regel in kleinen Serien oder zumindest in Paaren gestartet. Das ergab eine höhere Startrate als heute. Das ist heute aus vielen Gründen nicht so. So ist die Lebensdauer viel höher, was vor allem bei militärischen Satelliten aber auch Wettersatelliten die Startzahl deutlich reduzierte, Bei ´Forschungsmissionen kam man aufgrund der geringen Verlustrate von Doppelstarts ab, der letzte war der von Voyager 1977.

Nach dem Verlust der Challenger privatisierte man den Trägersektor und das hatte zuerst auch keine Auswirkungen auf die Startpreise. Das hat sich seitdem geändert. Die Atlas 401 stieg von 90 Millionen Dollar pro Start auf 187 Millionen, (für die NASA), noch gravierender waren die Preissteigerung bei der Taurus XL von 24 auf 70 Millionen Dollar. Das ist nicht das einzige, auch einige Projekte liefen aus dem Finanzrahmen. So stellte die NRO ein Nachfolgesystem für die KH-12 Aufklärungssatelliten ein, weil die Kosten aus dem Ruder liefen.

Die Ursachen scheinen vielfältig zu sein. Da scheint der bürokratische Aufwand zu sein. SpaceX verweist darauf dass NASA und USAF so viele "Daten haben wollen". Das sind nicht einige Daten auf einer DVD, das sind Ingenieure die permanent bei SpaceX sitzen und laufend um Auskunft bitten. Im Prinzip ein externes Qualitätsmanagement zusätzlich im Haus. Man kann annehmen das dies in allen Subunternehmern so ist. Wahrscheinlich würden viele Prüfungen, deren Ergebnisse die Regierungsbehörden haben wollen, sonst nicht durchgeführt werden, sonst könnte man nicht über Zusatzkosten von bis zu 50% des Startpreises reden. Dies wird sicher nicht nur bei den Trägern so sein, sondern überall in der Prozesskette, beginnend von den Einzelteilen über das Gefährt bis zum Management und der Missionsbetreuung. Das sieht man an einem aktuellen Beispiel. Der letzte ATV sollte unter besonders flachem Winkel in die Atmosphäre eintreten, weil man dies für die Station erwartet, die man nicht wie den Transporter mal kurz abbremsen kann. Dafür muss es sich nach dem Ablegen erst mal in die richtige Position manövrieren. Nun fiel vor einigen Tagen eine der vier Stromversorgungsketten aus. Von der Auslegung her sollte das ATV mit dreien noch ohne Problemen arbeiten. ("Fail operational") We sich zeigte war eine Batterie tot, wahrscheinlich durch eine ausgefallende Sicherung. Nun begann die Untersuchung und man erkannte bald beim Durchforsten der Tests, die man lange vor dem ersten Start machte: alles okay, ein Deorbit geht mit drei aktiven Ketten. Doch diesmal war kein normaler Deorbit geplant, anstatt 2-3 Tage würde das letzte ATV 12 Tage in einer Bahn bleiben, 16-mal pro Tag die Nachseite passieren und dabei die Batterien belasten. Das Management hat nun beschlossen, den flachen Eintritt zu streichen und schon am 15 anstatt 24.sten den Transporter verglühen lassen. Nur kein Risiko, das gilt eigentlich immer bei Militär- und wissenschaftlichen Missionen, selbst wenn die Mission eigentlich vorüber ist und es nur ums verglühen geht.

Man hat ja bei der NASA mal das Gegenteil probiert und zwar High-Risk, nur hat man das anders verkauft als "faster, better, cheaper". Nein das ist kein ALDI-Slogan, das war die Parole des Disocvery Programms. Nachdem man zwei Marssonden und eine Kometensonde verloren hatte, einige andere Sonden just bei den wichtigsten Missionsmomenten ausfielen, hat man das ganze wieder eingestellt. Man hatte zu viel gespart, so kosteten die Marssonden des Jahres 1999 nur noch zwei Drittel der (schon preiswerten) von 1997. Die letzteren beiden waren aber erfolgreich, die ersteren beiden gingen beide beim Mars verloren.

Nun ist es ja nicht so, dass man woanders leichtsinnig ist. Kommunikationssatelliten arbeiten heute auch meist länger als ihre Soll-Lebensdauer (die übrigens höher ist als, die Primärmissionen von Satelliten oder Raumsonden die meist bei 5 Jahren oder darunter liegen) und ich habe bei Trägerraketen bisher nicht gesehen, dass kommerzielle Flüge eher scheitern als nicht kommerzielle.

Warum also nicht einen Gang zurückschalten. Prüfungen, Tests, sicher, aber eben so viel wie bei kommerziellen Projekten. Das eingesparte Geld könnte man nutzen um die Mission zu versichern. Scheitert sie so kann man sie nachbauen. Russland macht das bei allen Satelliten und Raumsonden, nicht nur kommerziellen. Die Versicherungsgebühren liegen heute im einstelligen Prozentbereich. Wenn ich annehme das die 30-50% Zuschlag bei den Startkosten überall gelten, so könnte man viel Geld einsparen und die Budgets entlasten oder mehr Missionen durchführen.

Vielleicht überlegenswert.

17.2.2015: Gedanken zu GoogleSpaceX und OneWeb

Ich bekam eine Mail, in der ich aufgefordert wurde mich mit den sogenannten "Nanosatelliten" zu beschäftigen. Darunter versteht der Schreiber die Konzepte von OneWorld und GoogleSpaceX. (steht hier in diesem Artikel für den Plan von Google mit SpaceX als Auftragnehmer ein Satellitensystem aufzubauen). Mal abgesehen davon dass Bezeichnungen wie "Nanosatelliten" sich auf eine Gewichtsklasse beziehen und nicht auf eine Missionsauslegung (es gibt mit derselben Masse auch Erdbeobachtungssatelliten und Forschungssatelliten) heißt die Klasse von über 50 bis 300 kg eigentlich Mikosatelliten. Zumindest definiert Arianespace das in ihren Usermanual so.

Nun im Detail will ich mich damit nicht befassen, weil es zu wenig Informationen darüber gibt, kein einziges System ist bereits gestartet und die existierenden erdnahen Kommunikationssatelliten wie Iridium oder Globalstar sind um einiges schwerer. Aber ich will mal einige Spekulationen anstellen wie das System funktionieren könnte. An Daten gibt es sehr wenig:

Insbesondere die letzte Aussage bringt mich ins Grübeln. Wir kennen ja schon Internet über Satellit und Systeme im erdnahen Orbit zur Kommunikation. Derzeit verläuft Internet über geostationäre Satelliten so: Jemand kauft sich eine spezielle Parabolantenne mit Empfänger oder rüstet seine bestehende Satellitenempfangsanlage um. Er empfängt nun die Daten über den Satelliten, sendet aber (in der ersten Generation) die Anforderungen (Upstream) über die Telefonleitung, wahrscheinlich weil man sonst starke Sender bräuchte und der Satellit Probleme hätte die gleichzeitigen Signale verschiedener Sender auseinanderzuhalten und zu verarbeiten. Das ist eine Lösung für Gegenden in denen es Internet über Telefon gibt, aber es zu langsam ist. Diese Lösung hat auch den Vorteil das eine Antwort nur einmal über den Satelliten geht, der aufgrund seiner Position eine hohe Latenz hat (er befindet sich 36000 km über dem Äquator).

Der Nutzer profitiert von einer höheren Bandbreite als mit ISDN, wenngleich sie nicht mit denen von VDSL mithalten kann. Er bezahlt den Preis einer großen Latenz (ein Signal legt Minimum 80.000 km zurück, das sind 0,4 Sekunden Verzögerung bei Lichtgeschwindigkeit). Vor ein paar Jahren war diese Technologie eine Alternative in ländlichen, schlecht versorgten Gebieten, inzwischen erreicht man dort wahrscheinlich dieselbe Datenrate mit Mobilfunk (LTE). Es war keine Technologie für Sauger, denn die Datenmenge war begrenzt, was bei den Investitionskosten für Satelliten auch klar ist.

Inzwischen gibt es speziell für diesen Zweck gebaute Satelliten, die erste Generation nutzte normale Kommunikationssatelliten die auch den Upload verarbeiten. ViaSat-1 hat eine Kapazität von 140 GBit/s, Er erlaubt Download mit 12 MBit/s und Upload mit 3 MBit/s. Das System (mit wahrscheinlich weiteren Satelliten) soll 8-10 Millionen Nutzer versorgen und kostet ab 50 Dollar/Monat aufwärts. Klar ist, das selbst bei 10 Satelliten nur ein kleiner Teil der Nutzer die volle Bandbreite nutzen können, etwa 120.000. Geht auch der Upload über den Satellit so muss die Entfernung Erde-Satellit viermal passiert werden (jeweils zweimal beim Up- und Downstream) und die Latenz ist nochmals doppelt so hoch.

Dann gibt es schon erdnahe Systeme: Globalstar und Iridium, die jedoch Sprache oder kleine Datenmengen (128 kbit/s Maximum)  übertragen. Diese befinden sich in den Bahnhöhen der geplanten Systeme (Iridium 770 km, Globalstar 1450 km), haben aber viel weniger Satelliten (66 bei Iridium, 48 bei Globalstar). Von ihnen kennt man die Funktionsweise. Man baut eine Verbindung zu einem Satelliten über eine ungerichtete Antenne auf. Der Satellit empfängt das Signal und leitet es weiter. In der Nähe von einer Bodenstation zu dieser, ansonsten zum nächsten Satelliten, bis einer es an eine Bodenstation weitergeben kann. Ein anderes System ist auch für ein weltumspannendes Netz nicht möglich. Denn im Pazifik gibt es Wasserflächen die sehr groß sind und auf denen es keine Insel gibt auf der man eine Bodenstation erreichten könnte, selbst wenn wird diese nicht unbedingt an ein Seekabel angeschlossen sein. Es ist anzunehmen das die geplanten Systeme ähnlich funktionieren.

Das einzige System das man bisher geplant, aber nie umgesetzt hat war Teledesic, das sah 840 Satelliten in 700 km Höhe vor, dann reduziert auf 288 in 1400 km Höhe (24 Satelliten in 12 Bahnebenen, 700 km Fussprint pro Antenne in 700 km Höhe). Ein Satellit wog 120 kg und konnte 720 Mbit zum Terminal übertragen und 100 MBit empfangen. Es gab verschiedene Datenraten, die mit unterschiedlich starken Sendern und unterschiedlichen Antennengrößen erreicht wurden. 64 Sender und Empfänger gab es pro Satellit und die Koordination gab es durch Slots in denen jeweils ein Terminal aktiv sein konnte bevor ein anderes senden dürfte.

Hinsichtlich Zahl, Orbit und Gewicht ist Teledesic mit OneWeb vergleichbar, GoogleSpaceX liegt in der Dimension nochmals höher.

Warum braucht man so viele Satelliten, wenn Iridium und Globalstar mit einem Zehntel bis Hundertstel auskommen? Nun es liegt an den Datenraten. Die Voicebasierten Systeme nutzen wie jedes Handy eine weitgehend ungerichtete Antenne, die Signale aus allen Richtungen empfängt. (Rundstrahlantenne( Sobald der Satellit ein bisschen über dem Horizont gekommen ist (Sicherheitsabstand wegen Bergen und Gebäuden am Horizont und starker atmosphärischer Absorption) kommt eine Verbindung zustande. Bei Iridium sobald der Satellit 8,2 Grad über dem Horizont ist. Da man um keine Bit-Verfälschungen zu haben ein Signal deutlich über dem Rauschen sein muss ist klar, das bei mehr Bits pro Sekunde, dieses Signal-Rauschverhältnis abnimmt auch. Irgendwann reicht es nicht mehr für eine sichere Kommunikation aus, die Zahl der fehlerhjaften Bits wird auch zu groß für Fehlererkennungs- und Korrekturalgorithmen. Die Lösung ist eine höhere Sendestärke (verteuert die Satelliten die nun stärkere Sender haben, mehr Strom brauchen und durch die größeren Solarpaneele und Sender mehr wiegen) oder die Begrenzung des Winkels aus dem man Signal empfängt, indem man eine verstärkende Antenne, z.B. Parabolantenne nimmt. Sie empfängt nur Signale aus einem kleinen Winkelbereich und sammelt diese im Brennpunkt wo der Empfänger sitzt. Hat diese z.B. noch einen Öffnungswinkel von 45 Grad, so deckt sie nur noch 1/13 des Gebietes ab aus dem man bei Iridium empfangen kann (163,6 Grad). Für kostengünstige Terminals ist es zu aufwendig, die Antenne den Satelliten nachzuführen, also wird man sie fix auf den Zenit ausrichten. Dann empfängt man nur noch Daten, wenn der Satellit genau über einen hinwegzieht und nur rund um den Zeitpunkt herum - man braucht dann mehr Satelliten um eine lückenlose Kommunikation zu gewährleisten, da ein jeder nur einen Bruchteil der Zeit den Empfangsbereich der Antenne durchläuft, die er mit einer Rundstrahlantenne empfangbar wäre.

Einen weiteren Nebeneffekt hat die größere Zahl der Satelliten für die Nutzer. Wenn jeder Satellit eine fixe Bandbreite hat, so deckt jeder Satellit ein kleineres Gebiet der Erde ab, Bei Telesdisc z.B. nur Zellen von 160 x 160 km Größe. So verteilt sich die Gesamtdatenrate auf mehr potentielle Nutzer, jeder kann also einen größeren Teil dieser Datenmenge nutzen. (Supergut kommen dann Nutzer auf einsamen Inseln weg).

Die Satelliten werden dann die Daten von Satellit zu Satellit transferieren, bis man einen erreicht der nahe einer Bodenstation ist. Dieser überträgt sie zu dieser, die sie dann wieder ins Internetbackbone einspeist. Die Kommunikation von Satellit zu Satellit ist unproblematisch, da man hier nicht die Atmosphäre als Problem hat. So kann man Frequenzen ausnutzen die durch die Luft blockiert werden und hat keine Probleme andere4 Satelliten oder Services zu stören. Telesdesic nutzte das 60 GHz Band, das erlaubt 4-mal mehr Daten als das Ka-Band und 16-mal mehr als das Ku-Band. Nur die Bodenstationen müssen dann die Daten sehr vieler Satelliten auf einmal empfangen können. Da man hier nur die bekannten Frequenzbänder nutzen kann, werden die dann zum Engpass. Eine Alternative ist es das Signal über jeden Satelliten zu transferieren, bis man einen erreicht der nahe des Zieles is und dieser kontakt es direktt, doch dann verliert man zum einen den Hauptvorteil - durch die geringe Entfernung zum Benutzer eine geringe Verzögerung, zum anderen kann man so nur Nutzer erreichen die auch ein Satellitenterminal haben. Das dürfte also kaum in Frage kommen. Weiterhin passiert ein Signal so im Durchschnitt mehr Satelliten also bei dem Suchen einer Bodenstation, reduziert also die gesamte Bandbreite eines Intersatellitenlinks.

Soweit so gut. Man erhält so ein Netz das tatsächlich globales Internet zulässt. Es gibt aber einige offene Fragen. Die erste und wichtigste ist: Wo ist der Markt? In den industrialisierten Ländern, wo die Leute auch viel Internet nutzen, ist die Abdeckung mit DSL (übers. Telefonnetz) oder Kabel-Internet weitgehend flächendeckend. In den Entwicklungsländern, wo die Versorgung schlecht ist, können sich die Leute wohl kaum Satelliten-Internet leisten, sie verdienen zu wenig. Die 100 bis 300 Dollar pro Terminal sind in vielen Ländern mehrere Monatslöhne und da kommen noch die laufenden Gebühren dazu. Was bleibt sind die Leute die heute in der Pampa (in einem sonst hochentwickelten Land) wohnen und kein schnelles Internet haben und solvent sind, oder Internet das man auch haben will wenn man auf Reisen ist z.B. per Schiff oder Flugzeug. Ich bin nicht in der Materie drin, aber ich würde drauf tippen, das deise Kundschaft nicht ausriecht um diese riesige Flotte zu refinanzieren. Es wäre nichts das erste Mal, auch Iridium konnte nicht die Nutzerzahl gewinnen, die man sich vorstellt und wurde nur durch die Hilfe des US-Militärs gerettet.

Allerdings passt dieses Modell dazu nicht Elon Musks Aussage:

“We’re really talking about something which is, in the long term, like rebuilding the Internet in space,” Musk said. “The goal will be to have the majority of long-distance Internet traffic go over this network and about 10 percent of local consumer and business traffic. So 90 percent of people’s local access will still come from fiber but we’ll do about 10 percent business to consumers directly, and more than half of the long-distance traffic.”  (Quelle)

Er will also nicht Enduser ans Internet anbinden, sondern die "Majoroity of long distance Traffic" übertragen, also den größten Teil (>50%) des Traffics über große Distanzen. der Begriff "Große Distanzen" ist dehnbar, aber selbst wenn man darunter Kontinente versteht ist das trotzdem ein ziemlich großer Anteil am Gesamttraffic. Die Server von Facebook, Google und Co stehen z.B., schon in den USA. Vor allem zeigt die Diskrepanz zwischen Local Traffic und Long Distance Traffic, das man damit rechnet das der größte Teil der Daten nicht von Endnutzen kommt sondern Knoten des Backbones, welche die Satelliten nutzen. Diese können sich aber größere Parabolantennen und Sender leisten und könnten so die Satelliten verfolgen, man bräuchte so nicht so viele, es müssten nur mindestens zwei zu jeder Zeit empfangbar sein, damit man keine Unterbrechung hat (eine Antenne verfolgt jeden Satelliten, verliert die erste Antenne den Kontakt so sendet man über die zweite weiter und die erste kann auf einen neuen Satelliten ausgerichtet werden). So kommt man in der Bahnhöhe die anvisiert wird vielleicht auf 100 Satelliten, die man braucht, aber keine 4000.

Selbst wenn Musks rechnet das der meiste Traffic "local" ist (was allerdings voraussetzt, das der Nutzer dann diesen über eine andere Leitung übertragen kann) und so nicht über die Satelliten transferiert wird, so sind 10% des Gesamttraffics eine Menge. 2012 betrug der Traffic im Durchschnitt 32.000 Petabyte/Monat. 650 Oneweb Satelliten mit je 8 GBit/s würden etwa 40% dessen ausmachen, wenn man sie zu 100% auslasten wird (unwahrscheinlich weil 70% der Fläche der Erde Meer ist mit niedriger Bevölkerungsdichte und auch die Bevölkerung sehr unregelmäßig über die Landmasse verteilt ist). Das Problem nur: Der Traffic wächst seit Jahren um 50%. Bis das System steht (3 Jahre Bauzeit für den ersten Satelliten, 5 Jahre bis der letzte im Orbit ist) wird man rund 86-mal mehr traffic brauchen also 2012, aus 40% Abdeckung werden so 0,5%, selbst wenn GoogleSpace nun mehr Satelliten hat, werden sie weit von 10% Gesamttraffic entfernt sein.

Man wird schlauer werden wenn man das System aufbaut. Die Betonung liegt auf dem Wörtchen "wenn".

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99