Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 418: 20.3.2015 -

20.3.2015: Kann man schwarze Löcher zur Energiegewinnung nutzen? - Teil 1

Schwarze Löcher haben eine mythische Ausstrahlung. Schon der Begriff klingt toll. Eines der ersten Astronomie Bücher das ich gelesen habe hieß so und stammte von Isaac Assimov und es gab mal einen Spielfilm der so hieß, Daneben spielen sie ja immer Rollen in Science Fiction filmen. Schwarze Löcher versprechen - zumindest in der Theorie - den zweithöchsten Energiegewinn von bis zu 50% der Energie der in der Materie drinsteckt (nach E=mc²) (nach der Vernichtung von Teilchen mit Antiteilchen mit 100%), etwa 15-mal mehr als man durch Kernfusion und über 200-mal mehr als man durch Kernfission gewinnen kann. Ein Schwarze-Löcher Kraftwerk würde also 200 Kernkraftwerke ersetzen.

Doch warum dem so ist, dazu erst mal eine kurze Geschichte der Schwarzen Löcher. Auf Körper, die diese Eigenschaften haben, kam man erstmals vor 100 Jahren als Karl Schwarzschild sich einigen Vorhersagen der speziellen Relativitätstheorie widmete. Schwarzschild erkannte: Ist ein Körper hinreichend klein, so übersteigt die Fluchtgeschwindigkeit an der Oberfläche die Lichtgeschwindigkeit. Da diese die höchste erreichbare Geschwindigkeit überhaupt ist, kann nichts on dem Körper entkommen nicht mal Licht. Er erscheint also absolut schwarz.

Zuerst blieben Schwarze Löcher nur eine Vorhersage. Als man in den Fünfziger Jahren die ersten Sternmodelle mit dem Computer durchrechnete zeigte sich, dass sehr massereiche Sterne am Ende ihres Lebens einen so großen Kern haben, dass wenn dieser kollabiert (und das passiert ,wenn der Kernbrennstoff verbraucht ist) er ein Schwarzes Loch bilden kann, weil seine Masse so hoch ist, dass keine andere bekannte Kraft gegen die Gravitationskraft ankommen kann.

Danach waren schwarze Löcher auch praktisch möglich und bald fand man Objekte die man nicht einordnen konnte und die man mit dem Phänomen in Verbindung brachte. Das waren zuerst Quasare, die viel Energie auf kleinem Raum abgaben. Quasare sahen wie Sterne aus, waren aber enorm weit von der Erde entfernt und mussten damit man sie noch auf dieser Entfernung nur als Punkt wahrnahm enorm klein und enorm energieabgebend sein. Das lies sich am besten mit einem schwarzen Loch erklären das Materie aufsaugt. Da sein Radius klein ist kann sie die Materie gar nicht auf einmal "schlucken". Sie staut sich um das schwarze Loch wird von der Gravitation und dem gegenseitigen Druck aufgeheizt und gibt Strahlung ab. Sehr bald erkannte man, dass wohl in jeder Galaxie in der Mitte ein Schwarzes Loch ist. Dieses ist aber viel größer als die aus Sternen entstehende. Quasare, das zeigten bessere Aufnahmen in den nächsten Jahrzehnten sind die aktiven Kerne von Galaxien in der Frühzeit des Universums, die als sich die Galaxien bildeten viel mehr Materie aufsaugen können als später und so hell strahlten und die restliche Galaxie überstrahlten.

In den Siebzigern fand man dann Sterne, die um einen unsichtbaren Begleiter kreisten und Röntgenstrahlung abgaben. Auch dies passte dazu, dass man ein schwarzes Loch als Begleiter hat. Damit hatte man auch die stellaren schwarzen Löcher gefunden. So war die Welt erst einmal in Ordnung: schwarze Löcher gibt es bei schweren Himmelskörpern. Heute gibt es keinen physikalischen Prozess, der auf engstem Raum so viel Energie zur Verfügung stellt, dass kleinere schwarze Löcher als 3,2-fache Sonnenmasse entstehen konnte. Man hatte aber alle größeren gefunden und alle waren glücklcih.

Doch was war beim Urknall? Damals herrschten kurzzeitig so extreme Bedingungen, dass es im Weltall nur so vor schwarzen Minilöchern wimmeln sollte. Sie sollten bei hoher Teilchendichte und Energiedichte schon aus der Kollision von zwei Teilchen sich bilden. Diese ist um so wahrscheinlicher je höher die Teilchendichte ist. Kurzum: Je näher man dem Urknall kommt um so mehr schwarze Löcher müssten entstehen. Doch wo sind sie alle geblieben? Steven Hawking fand in den Siebzigern die Antwort. Sie ergibt sich wenn man die Quantentheorie auf die schwarzen Löcher anwendet. Nach dieser ist das Vakuum nie ganz leer. Es bilden sich ständig Teilchen-Antiteilchenpaare. Sie vernichten sich nach kurzer Zeit wieder, sodass man sie nie beobachtet. Was man beobachtet ist nur das das Vakuum auch Energie abgibt, sie ist proportional zu der Temperatur und entspricht einem Hintergrundrauschen., Man spricht daher auch von "virtuellen Teilchen". Doch in der Nähe eines Schwarzen Loches kann folgendes Passieren: ein Teilchen wird ins Loch gezogen. Es kann ihm nicht entkommen. Übrig bleibt das zweite. Von außen aus gesehen emittiert das schwarze Loch daher Strahlung, es gibt Energie ab.

Bei großen Löchern ist diese Energie im Vergleich zur Masse zu vernachlässigen. Sie werden noch lange Zeit wachsen. Doch der Radius, ab dem nichts dem Loch entkommen kann, der Schwarzschildradius, ist linear von der Masse abhängig. Die Oberfläche dagegen quadratisch und das Volumen sinkt in der dritten Potenz. Das bedeutet: ein Tausendmal masseärmeres schwarzes Loch hat eine hundertfach kleinere Oberfläche, gibt also ein Hundertstel der Strahlung ab - dies bei einem Tausendstel der Masse. Je kleiner das Loch ist desto mehr Strahlung gibt es im Verhältnis zur Masse ab, und das ist verhängnisvoll, es wird dadurch masseärmer, gibt also noch mehr Strahlung ab. (Nach m=E/c² kann die Strahlung nicht aus dem Nichts kommen, sondern verringert die Masse des Schwarzen Lochs). Man kann errechnen das schwarze Löcher so immer kleiner werden, bis sie schließlich verdampfen.

Das müsste allen schwarzen Löchern aus der Zeit des Urknalls so passiert sein. Es gibt allerdings auch die Chance, dass viele dieser schwarzen Löcher fusionierten und so größere Löcher bilden, die wiederum leichter andere Löcher aufsaugen und später auch Materie akkumulieren könnten. So könnte es größere schwarze Löcher geben, die länger leben. Nach Hawking würde ein schwarzes Loch mit einer Masse von mehr als 1 Milliarde Tonnen, etwa so viel wie ein kleiner Asteroid wiegt, heute noch existieren und 10000 GW an Leistung abgeben. Nach Hawkings Rechnungen sollte es noch 300 dieser Minilöcher pro Kubik-Lichtjahr geben.

Die abgegebene Leistung des Minilochs ist die von 10 Kraftwerken der 1GW Klasse. Damit könnte man was anfangen. Doch Hawkings Vorhersage von Minilöchern konnte bisher nicht beweisen werden. Man fand keine Hinweise für solche Minilöcher. Selbst die Pioniere 10 Anomalie, die auf ein solches Miniloch hindeutete, konnte anders erklärt werden. Doch nun gibt es zumindest theoretisch die Möglichkeit aus schwarzen Löchern Energie zu beziehen. Doch dazu morgen mehr.

21.3.2015: Kann man schwarze Löcher zur Energiegewinnung nutzen? - Teil 2

Im gestrigen Aufsatz habe ich erläutert was man bisher über schwarze Löcher weiß und das nicht alle schwarzen Löcher wirklich schwarz sind, sondern kleine schwarze Löcher wieder Energie abgeben. Die Nutzung von schwarzen Löchern zur Energiegewinnung wird wohl für absehbare Zeit aber Utopie bleiben - zumindest was schwarze Löcher angeht, die natürlichen Ursprungs sind. Das nächste schwarze Loch aus einer Sternenleiche, das wir kennen, ist immerhin noch rund 1000 Lichtjahre entfernt - das ist doch eine sichere Distanz, aber auch unerreichbar. Und ob es die von Hawking propagierten Minilöchern gibt, ist offen und wenn, dann weiß keiner, wie man eines entdecken kann (sie sind so klein, dass auch ihre Gravitationskraft klein ist).

Nun gibt es aber noch künstliche schwarze Löcher. Nach der speziellen Relativitätstheorie kann ein schwarzes Loch jeder Größe entstehen, wenn auf kleinstem Raum genügend Materie oder Energie zusammen kommen. So gab es nicht wenige Befürchtungen, dass der neue Beschleunigerring beim CERN zahllose schwarze Löcher erzeugen kann, da zwei Teilchen wenn sie nach Durchlaufen des Beschleunigerrings zusammenprallen schon genügend Energie haben um eines zu bilden.

Wie im ersten Teil erläutert, gibt aber ein schwarzes Loch um so schneller Energie ab, je kleiner es ist. So rechneten Lee Chen und Walter McDurben als die Gerüchte aufkamen, dass es im CERN schwarze Löcher erzeugt werden würden vor, dass die im CERN erzeugten Schwarzen Löcher im Mittel eine Lebensdauer von 3,4 Pikosekunden haben und in dieser Zeit bewegen sie sich gerade einmal 1 mm weit und sind beim Zerfall noch innerhalb des Detektors. Damit ist das Thema eigentlich erledigt. Doch nicht für alle. Einige Personen fragten nach, was wohl passieren würde, wenn durch ein Erdbeben Materie in den Detektor gelangen würde. Nun die offensichtliche Antwort ist, dass dann der Weg im Ring blockiert ist und damit auch die Beschleunigerstrecke. die Teilchen würden also nicht die Energie erreichen die man braucht um ein schwarzes Loch zu bilden.

Chen(McDurben lies die Frage aber keine Ruhe, gäbe es nicht die Möglichkeit die Lebensdauer des Lochs zu vergrößern, sodass man tatsächlich ein schwarzes Loch erzeugen kann, das wachsen kann? Es geht mindestens 500 mm Strecke bis zur Detektorwand, also die 500-fache Lebensdauer zu überbrücken. Ein bisschen mehr Lebensdauer liefert die Statistik. Die 3,4 Pikosekunden sind nur die mittlere Lebensdauer. Einige schwarze Löcher können beträchtlich länger leben, aber selbst wenn man den Beschleuniger so lange betrieben würde, wie die Erde alt ist, würde kein einziges Schwarzes Loch die 500-fache mittlere Lebensdauer erreichen.

Eine Möglichkeit die Chen sah, war dass es Dreifachkollissionen gibt. die dort erzeugten Löcher leben erheblich länger, aber Deifachkollissionen auch extrem selten. McDurben ging einen anderen Weg. Was wäre, wenn das schwarze Loch weitere Teilchen aufnahmen würde, wie z.B. Lichtteilchen oder Elementarteilchen. Licht, das zeigte sich, reicht nicht aus. Selbst Gammastrahlung hat zu wenig Energie um das schearze Loch schnell genug wachsen zu lassen. Anders sieht es bei der Absorption eines Protons oder Neutrons. Da der Beschleuniger schon belegt ist mit der Erzeugung der Teilchen-Antiteilchen müssen diese von woanders kommen. Eine 50 cm dicke Schicht rund um den Detektor aus 20% Uran-235 in 80% Uran 238 wäre einerseits so stabil, dass keine Kernspaltung stattfindet. Andererseits emittiert sie so viele Neutronen, das jedes 5-Millionste schwarze Loch ein Neutron aufnimmt, bevor es zerfällt. Dieses verlängert die Lebensdauer so sehr, das jedes 37900-ste deiser Löcher ein weiteres Neutron aufnehmen kann, bevor es verdampft. Jedes 789-ste kann noch ein drittes Neutron einfangen. Danach ist die Lebensdauer erheblich höher als die Wahrscheinlichkeit ein weiteres Neutron aufzunehmen, kurzum, man hat ein schwarzes Loch das genügend stabil ist bis es auf die Behälterwand trifft. Dort in einem Atomverbund kann es schnell weiter wachsen, wird dabei aber auch immer langsamer, da die Masse zunimmt, die anfängliche Beschleunigungsenergie sich auf immer mehr Masse verteilt.

Nun wird die Gravitationskraft übermächtig und würde das schwarze Loch zum Erdmittelpunkt ziehen. Wie es dort weitergehen würde, wurde leider nicht durchgerechnet, denn das war nicht die Aufgabe. Aber es gibt zumindest in der Theorie eine Möglichkeit ein stabiles schwarzes Loch zu erzeugen. Würde man den Detektor mit der entsprechenden Neutronenquelle umgeben, so würde man rund 27 solche Ereignisse pro Tag beobachten. Wie schon gesagt, theoretisch, denn es gibt derzeit keine Neutronenquelle. Chen/Mc Durben machten sich Gedanken ob man diese schwarzen Löcher nicht zur Forschung nutzen könnte. Die Lebensdauer sollte daher so hoch sein, dass man sie untersuchen kann, aber sie nicht weiter wachsen können. Das geschieht am besten indem man dafür sorgt, dass sie nur begrenzt an Masse zunehmen und dann einen weiteren Massegewinn verhindert. Sie gewinnen an Masse wenn sie Materie durchqueren und sie verlieren Masse wenn sie im Vakuum sind.

Die Idee war nun anstatt des Detektors eine dünne Stahlröhre am Treffpunkt der Teilchen zu montieren. die Windstärke muss dünn sein um ein zu hohes Wachstum des schwarzen Lochs zu verhindern und andererseits braucht man bis zur Kollision in der Röhre ein vollständiges Vakuum, die Wand muss also stabil genug sein um nicht durch den Ausendruck von 1 Bar zu kollabieren. Eine 0,12 mm stark Stahlwand erfüllt diese Bedingungen. Beim passieren einer so starken Stahlwand steigt die Lebensdauer des Schwarzen Loches auf 3 Sekunden und es verlangsamt sich durch den Materiezuwachs von Lichtgeschwindigkeit auf 12 m/s. Eine 50 m große Vakuumkammer wäre groß genug um es vollständig verdampfen zu lassen bevor es wieder auf die Kammerwand trifft. auch wenn es nach unten sinkt durch die Erdbeschleunigung.

In den drei Sekunden könnte man das schwarze Loch bzw. seine Emissionen im kurzwelligen Gammabereich studieren. Das schwarze Loch wird einen rund 3,4 Mikrometer dicken Kanal in das Rohrreisen schlagen und in seiner Lebenszeit eine Energie von 1,7 MW abgeben. Damit ist man noch weit weg von einer wirtschaftlichen Nutzung der schwarzen Löcher, denn bei 27 dieser Ereignisse pro Tag sind das im Mittel nur 0,53 KWh, weitaus weniger als das CERN selbst an Energie verbraucht. Es wäre aber erstmals möglich schwarze Löcher in Situ zu studieren. Der Aufwand ist aber groß, man müsste eine Kaverne von 100 m Durchmesser in den Fels sprengen, dorthin das Rohr verlegen und mit rund 5 t mittelstark angereichertes Uran um die Röhre verlegen. Das würde Milliarden kosten und ist wahrscheinlich unfinanzierbar. Selbst dann wird man die Energie der schwarzen Löcher nicht nutzen können. Da die einzige Kraft die sie beeinflusst die Gravitationskraft ist kann man keine synthetisieren die eine lange Lebensdauer haben. Sie würden sonst zum Erdmittelpunkt absinken. Die Energiefreisetzung von ganz kleinen Löchern ist aber zu gering und erfolgt in form von kurzwelliger Gammastrahlung. Um diese vollständig zu absorbieren braucht man sehr viel Materie die sich wiederum zu gering erwärmen würde als das man dies technisch nutzen könnte.

So bleibt die Energieerzeugung aus schwarzen Löchern wohl ein Traum.

23.3.3105: Warum ist Abnehmen so schwer?

Nun auf die Frage gibt es etliche mögliche Antworten. die die man am häufigsten hört, ist die evolutionstheoretische. Für den größten Teil der menschlichen Geschichte war die Nahrungsversorgung unregelmäßig. Als die Menschen noch Jäger und Sammler waren, war es wichtig wenn es etwas zu essen gab Vorräte anzulegen. Konservieren konnte man nicht, so waren die Vorräte die Speckschichten am Körper. Je nach Autor ist daher der menschliche Körper so gepolt, möglichst viel zu essen ohne die Rückkopplung zu geben, "Es reicht" oder man setzt bei Hunger eine solche Kaskade an Alarmsystemen in Gang die einen bewegen sollen etwas zu essen. So ganz kann ich der Argumentation nicht folgen, denn auch dieses System muss einen "Stopp-Regler" haben um ein Zunehmen über ein Maß zu verhindern bei dem die Gesundheit leidet. Nicht nur Unterernährung auch zu viel Übergewicht ist nicht gesund und daher sollte es eine Regulation geben die wir ja auch in anderen Bereichen kennen.

Selbst nach der Steinzeit galt die Unregelmäßigkeit der Versorgung für einen Großteil der menschlichen Bevölkerung, obwohl nun mit der Landwirtschaft eine stabiliere Versorgung vorlag. Denn die Menschheit lebt zu einem großen teil in den mittleren Breiten, in denen im Winter nichts wächst, also das Leben von den Vorräten oder eben Hunger angesagt ist. Nur wenige Kulturen wie die ägyptische haben drei Ernten pro Jahr und damit praktisch keine jahreszeitlichen Schwankungen (es ist sicher auch kein Zufall, dass die Ursprünge der früheren Zivilisationen in gerade jenen Gegenden angesiedelt sind, die keinen Winterausfall bei der Ernte kennen).

Die psychologische Fraktion macht unser Belohnungssystem verantwortlich. Man weiß seit langem, dass der Konsum von Schokolade aber auch anderem Essen für Aktivität in diesem Zentrum im Gehirn verantwortlich ist. Allerdings hat dies in vielen Fällen nichts mit der Zusammensetzung der Nahrung zu tun, deren Substanzen meist nicht die Blut-Hirn-Schranke passieren können. Zumindest bei Schokolade sollen es angenehme Erinnerungen sein, vielleicht auch ein Mechanismus der bei anderen Lebensmitteln zuschlägt.

Zumindest bei Tieren scheint die Kombination von Fett und Zucker aber deren Belohnungszentrum direkt zu aktiveren. Dies kann mit der Erregung von Sensoren zusammenhängen, die man im Magen hat, dazu natürlich auch das Geschmackserlebnis beim Essen. Nase und Zunge sind ja auch voller Sensoren. Ob es beim Menschen auch so ist ist noch offen. Als Indiz wird angeführt, das selbst synthetische Mischungen von Fett und Zukcer angenehm schmecken, reiner Zucker und reines Fett dagegen fade und nicht appetiitsteigernd sind.

Eventuell ist das Phänomen noch universeller. Den Hinweis dafür lieferte ein Abnehmmittel. Rimonabant. Dieser Stoff wurde eigentlich zur Raucherentwöhnung entwickelt, wegen seiner apetittzügelnden Wirkung dann aber als Abnehmmittel auf den Markt gebracht. Rimonabant dämpft das Hungergefühl. Seit 2008 ruht die Zulassung in der EU, weil sich schon bei der normalen Zufuhrmenge Depressionen eine sehr häufige Nebenwirkung waren. Es kam bei einigen Probanden zu einer deutlichen Steigerung der Depression die in einigen Fällen in einen Suizid abgeleitete.

Rimonabant war ein Antagonist des Endocannaboidsystems. Er blockierte den CB1-Rezeptor, dadurch gab es die Dämpfung des Appetitgefühls. Das Endocannabinoidsystem soll über diese Rezeptoren bei der Regulation der Nahrungsaufnahme und der Funktion von Fettzellen eine Rolle spielen. Bei Fettleibigen soll es "überaktiv" sein.  Doch dieser CB1-Rezeptor hat auch durchaus andere Wirkungen. Die komplexen Einflüsse auf Erinnerungsfunktion, Schmerzzustände, Schlafinduktion, Temperatursteuerung und Angstgefühle sind bislang nicht umfassend untersucht. Die Blockierung des Rezeptors verringerte die Lebensfreude, die Personen wurden unglücklich, depressiv.

Sehr verwundert hat mich das nicht. Hätten die Forscher mal Cannabis geraucht, dann wären sie sicher vorsichtiger gewesen bei der Entwicklung dieses Stoffes und seiner Zulassung. Denn Tetrahydrocannabinol (THC), der wichtigste Wirkstoff in Cannabis (Haschisch, Marihuana), dockt an genau dieselben Rezeptoren an und hat gerade die entgegengesetzte Wirkung:

Einen Rezeptor dessen Wirkung sich auch auf die Laune und Schmerzempfinden erstreckt, zu blockieren nur um etwas schneller abzunehmen, ist keine gute Idee. Es zeigt aber auch, das bei uns Appetitregulation und Stimmung gekoppelt ist. Kurzum: Hungern macht schlechte Laune. Und mit schlechter Laune ist schlecht abzunehmen.

24.3.2015: Konkurrenz belebt das Geschäft

Diese Woche gab es zwei neue Bekanntmachungen von Vorschlägen für das CRS-2 Programm. Es gab ja schon die Bekanntgabe von Boeing sich mit einem umgebauten CST-100 zu beteiligen. Die beiden neuen sind durchaus innovativer. Sierra Nevada will ihren Dream Chaser unbemannt einsetzen und gegebenenfalls durch ein angedocktes, nicht wiederverwendbares Modul für sperrige Fracht ergänzen. Pro Flug sollen 5500 kg hoch und bis zu 1750 kg runter transportiert werden.

Lockheed Martin hat das umgesetzt, was ich immer für das ATV vorschlug: Servicemodul und Druckmodul zu trennen. Ein "Jupiter" genanntes Gefährt wird im Orbit bleiben, ein reines Frachtmodul einfangen (wegen den CBM-Anschlüssen nimmt man dazu einen Canadararm) und dann bei der Station abliefern. Beim Abtrennen wird dann nur das Cargomodul deorbitiert. Anders als bei Sierra Nevada kann man so nur 1750 kg Müll entsorgen. Pro Flug wird diese Lösung 6500 kg transportieren. Die Lösung spart Geld, denn das Druckmodul ist der billigste Teil am Transporter.

Dies zeigt in positiver Weise wie Konkurrenz das Geschäft belegt. Die NASA nimmt ja nur noch eine Transportleistung in Anspruch. Sie ist damit Kunde wie kommerzielle Satellitenbetreiber bei GTO-Satelliten. Wie die Firma ihr Transportvehikel baut und wie ihre Wirtschaftlichkeitsrechnung aussieht ist ihr überlassen. Das führt dann doch zu ganz unterschiedlichen Lösungen, je nachdem welche Vorarbeiten die Firma schon erledigt hat. Bei LM basiert das Jupitermodul auf den Erfahrungen und Komponenten für Raumsonden, Sierra Nevada nutzt natürlich ihren schon in der Entwicklung befindlichen Dreamchaser. Beide Konzepte versprechen eine Reduktion der Kosten durch Wiederverwendung.

Die beiden schon bei CRS1 beteiligten Firmen Orbital und SpaceX können dagegenhalten auch wenn bei Orbital das Gefährt nicht wiederverwendbar ist und bei SpaceX die Masse im Druckmodul begrenzt ist: sie müssen keine Entwicllungkosten zu ihren Services hinzurechnen, denn die Gefährte existieren ja schon.

Es wird interessant sein zu sehen wer das Rennen macht. CRS runde 2 ist für die Firmen attraktiver als CRS1, da die Transportmenge sich mehr als verdoppelt. (CRS1: 40 t von 2012 bis 2016, CRS 2: 15,5 bis 21 t pro Jahr) Gerade deswegen kann es sein, dass die CRS1-Anbieter schlechtere Karten haben, denn bei 15,5 bis 21 t Material pro Jahr müsste man bei durchschnittlich 2 bis 2,5 t Nutzlast bei den Transportern von Orbital und SpaceX durch sehr viele Flüge durchführen. Das bedeutet eine hohe Arbeitsbelastung der Astronauten und Kontrollzentren. Bei SpaceX wird es problematisch die vielen Flüge ins Launchamnifest zu integrieren das jetzt ja schon gerammelt voll ist. Wenn die NASA dem treu bleiben will, was sie bei COTS als Ziel hatte, nämlich mehr Auswahl zu haben, so sollte sie nun neue Unternehmen fördern wie eben Sierra Nevada. Ich befürchte aber es werden die beiden etablierten Anbieter sein, denn die Zeit ist wie schon bei CRS1 knapp: 2017 müsste der erste Anbieter starten, eine Entscheidung wird aber erst im Sommer erwartet. Etwas mehr als zwei Jahe sind arg knapp für Neuentwicklungen. Den Fehler hat man ja schon bei COTS/CRS1 gemacht - man kümmert sich um die Probleme viel zu spät und diesmal gibt es kein ATV dass drei Jahre Verzögerung bei den US-anbietern auffangen kann.

Interessant wird auch die Summe sein die die NASA für die Transporte zahlen will. Wie wir aus der Auseinandersetzung um weitere ATV-flüge wissen, sind der NASA zwei ATV Flüge drei Jahre ISS Betrieb wert, die sonst mit 450 Millionen Euro berechnet werden, also rund 32.000 €/kg Fracht. Bei CRS1 zahlt sie ihren Unternehmen aber im Durchschnitt 87.500 $/kg. Also Fracht ist mehr wert wenn sie von US-firmen transportiert wird, als von internationalen Partnern. Es wäre ja nicht das erste Mal wo die NASA ungleiche Maßstäbe anlegt.

1.4.2015: Das letzte ISS Modul

Als man die ISS konzipierte, hatte Russland einen Teil der ähnlich groß war wie der westliche Teil. Drei Forschungsmodule und ein Stromversorgungsmodul mit Druckhülle waren geplant. Damit wäre der russische Teil in etwa so groß wie Mir gewesen (er stammte auch von der Mir-2 ab). Doch es kam anders: Sarja wurde von der NASA finanziert, bei Swesda sprangen die NASA und ESA auch ein, damit es überhaupt gestartet werden konnte. Seitdem startete Russland nur zwei Luftschleusen "Pirs" und "Poisk", die auf umgebauten Progress-Raumschiffen bestehen und ein Minimodul Rasswet, das magels Geld für die Trägerrakete sogar vom Shuttle befördert werden musste. Drei weitere Module wurden gestrichen. Was seit Jahren aussteht ist das einzige verbliebene Forschungsmodul "Nauka". Als ich mein ISS-Buch Mitte 2010 schrieb, war sein Start für Dezember 2011 geplant - und lag damals schon 3 Jahre hinter dem Plan zurück.

Nun bis vor einigen Wochen bewährte sich meine Raumfahrtregel "Nauka ist konstant 2 Jahre vom Start entfernt" und der Start von Nauka wurde für den Februar 2017 festgelegt. Es war seit zwei Jahren beim Hersteller, weil das Treibstoffsystem ein Leck haben soll. Ziemlich lange um dieses Problem zu beheben. Inzwischen gibt es doch Neuigkeiten auf die ich bei der Recherche für die zweite Auflage des ISS-buchs gestoßen bin.

RIA Novosti meldete, dass Russland nun den Start vorgezogen hat und man hat das Modul umbenannt in "Resurs M". Resurs ist das russische Wort für "Ressourcen" und so hießen schon einige russische Erdbeobachtungssatelliten. Diese Serie wurde allerdings inzwischen eingestellt. das "M" im Namen steht für bemannt. Nach der Pressemitteilung der Roskosmos ist die Aufgabe von Resurs-M die Erdbeobachtung und -erkundung. Sie soll dort weitermachen wo man mit Kwant-2 bei der Mir aufhörte.

Inoffiziell ist der Zweck jedoch ein anderer. Russland wird die bemannte Weltraumspionage fortsetzen, die man früher im Rahmen des Almaz Programmes betrieb. Dieses wurde 1977 eingestellt, weil mit Film als Ressource der Aufwand in keinem Verhältnis zum Ergebnis stand. Inzwischen setzt Russland wie die meisten anderen Nationen Spionagesatelliten mit CCD als Detektoren ein, so stellt sich die Frage, warum man nun plötzlich wieder ein bemanntes Modul startet.

Roskosmos bleibt vage. "Zweck des Weltraumlabors Resurs-M ist Erdbeobachtung, Umweltüberwachung und Entwicklung neuer Beobachtungstechniken". Das letzte dürfte wohl der Schlüssel sein. Denn noch immer haben russische Satelliten eine vergleichsweise niedrige Lebensdauer von 2-3 Jahren. Digiglobe betreibt dagegen noch alle Satelliten die sie seit 1997 gestartet haben (die Firma ist Hauptlieferant der Bilder für die NRO). Die offensichtlichste Erklärung dürfte die sein, dass die Elektronik vorher ausfällt. Russland unterliegt immer noch den COCOM Bestimmungen, die den Export von bestimmten Elektronischen Bauteilen verhindern. Sie wurden im letzten Juni nach der Ukrainekrise sogar noch verschärft. Betroffen davon sind auch alle "radiation resistant" Bauteile, also Prozessoren, Speicherbausteine, sonstige IC die die starke kosmische Strahlung im Orbit überleben. Erdbeobachtungssatelliten brauchen für die Verarbeitung der hohen Datenraten leistungsfähige Prozessoren, die sehr empfindlich gegenüber der Strahlung sind und die vom Embargo betroffen sind. Sie stehen Russland nicht zur Verfügung.

Russland weicht aus soweit es geht. Die Sojus Raumschiffe setzen einen völlig veralteten  TsVM-101 Computer mit einem Prozessor in der Leistungsklasse eines 386-er PC ein. Er ist aber weltraumqualifiziert und sein MIPS R3081 Prozessor unterliegt nicht dem Embargo, Mit dieser Leistung kann man die Daten, die eine Kamera liefert aber nicht verarbeiten. Digiglobes neuester Späher Wordlview-3 zeichnet Daten z.b. mit 2 GBit/s auf. Russland weicht, wenn man die Leistung braucht, auf "radiation tolerance" Elektronik aus, das sind Bauteile die erhöhte Strahlung vertragen, aber nicht weltraumqualifiziert sind. Sie werden im zivilen Bereich z.b. in Verkehrsflugzeugen eingesetzt die aufgrund ihrer Flughöhe in er unteren Stratosphäre eine erhöhte Strahlungsdosis empfangen. Es handelt sich meist um Bauteile mit höhere Spezifikationen gegenüber den Betriebsparametern (Spannung, Temperatur) die nach verschiedenen Tests aus der normalen Produktion selektiert wurden. Früher hie die Spezifikation für dieselben Bauteile, wegen der Verwendung beim Militär )Lenkwaffen, Flugzeuge) meistens "military grade oder military spec" . Aufgrund des rasant angestiegenen Elektronikanteils in Verkehrsflugzeugen ist diese Kategorie heute aufgeweicht worden, es sind vor die neusten Bauteile dieser Kategorie vom COCOM Embargo betroffen.

Das dem so ist weiß man seitdem Phobos Grunt verloren ging und ein Grund für den Ausfall die Verwendung von nur strahlungstoleranter, aber nicht strahlungsgehärteter Elektronik war. Strahlungstolerante Elektronik soll einige Wochen bis Monate funktionieren, danach ist mit einer erhöhten Ausfallrate zu rechnen. Anders als bei einem Satelliten wird man in Resurs M die Elektronik auswechseln können, die Kameras selbst scheinen wie bei einem Satelliten autonom zu arbeiten und keine Bedienung zu erfordern. Denkbar ist auch das man die Optik behält und die Sensoren bzw. die Kameras auswechselt. Zudem schützt die dicke Hülle des Moduls besser vor kosmischer Strahlung.

Obwohl Resurs-M erst im Herbst 2016 starten soll wirft es schon jetzt seine Schatten voraus, denn Russland ersuchte die JAXA als Kompensation der japanischen Beteiligung an den russischen Ressourcen bzw. russischen Teil der Station beim nächsten HTV-Flug eine Parabolantenne mitzuführen, die man vor Ankunft des Moduls bei einer EVA montieren will. Sie soll die Daten über russische Kommunikationssatelliten übertragen, da die NASA-Verbindungen dafür nicht ausreichen, bzw. das Kontingent dafür zu gering ist. Aufgrund der Größe passt sie nicht in eine Progresskapsel. Das veranlasste die NASA zu einer Stellungnahme, in der sie das russische Vorgehen nicht befürwortete aber auch auf den internationalen Charakter der Station verwies. Anders als das Wort "Internationale Raumstation" suggeriert ist es keine gemeinsame Raumstation, es ist eine Station aus einer russischen und amerikanischen Station. Russland hat exklusive Rechte an seinem Teil und nutzt diese z.B. für den Start von Weltraumtouristen, was der NASA überhaupt nicht recht ist (so soll bald Sarah Brightman als Tourist starten). Die NASA kann wenig gegen das Vorgehen machen, will das Thema aber auch nicht hochkochen, weil man im Abkommen mit JAXA und ESA z.b. auch den Passus hat, dass die USA ebenfalls militärische Forschung an Bord der Station durchführen können, auch wenn man dies niemals getan hat. (zumindest nach offizieller Verlautbarung).

Über die genaue Instrumentierung von Resurs-M ist wenig bekannt. Nur das es mehrere Kameras sind. Die Ausrichtung (zumindest von Nauka) mit der Längsachse Richtung Erde würde bei dem rund 6 m langen zylindrischen Teil eine Brennweite von 15 m bei einem gefalteten Strahlengang erlauben. Bei gängigen TLI-Sensoren korrespondiert dies mit einer Auflösung von 20 cm. Ich halte eine geringere Auflösung für wahrscheinlich, weil US-Experimente auf etwa 1 m Auflösung beschränkt sind, bedingt durch Störungen durch die Besatzung bzw. Bewegungen der Station. Die Kompensation dieser um auf die fünffache Auflösung zu kommen würde eine ziemlich aufwendige Lagerung auf Schwingungsdämpfern und eine schnelle aktive Kompensation von Störungen erfordern. Sie dürfte wahrscheinlich irgendwo dazwischen also zwischen 20 und 100 cm liegen.

Resurs-M wird nicht das letzte Modul bleiben. Die Roskosmos kündigte an, 2018 es durch ein Modul mit einem aktiven Radargerät zu ergänzen. Immerhin machen so einige andere Ankündigungen Sinn. Vor wenigen Monaten entschloss man sich für eine Verlängerung des ISS-Betriebs bis 2024, danach sollten dir russischen Module abgekoppelt werden und eine eigene Raumstation formen. Das machte bei nur zwei russischen Modulen die noch dazu die beiden ältesten sind keinen Sinn. Nun mit zwei Erdbeobachtungsmodulen macht dies viel mehr Sinn.

30.3.3015: Totgesagte leben länger

Letzte Woche konnte die Vega einen erneuten Startauftrag verbuchen. Die Vega wird einen peruanischen Erdbeobachtungssatellit starten zusammen mit vier Skybox Satelliten. Damit hat Arianespace von den erst am 20.11.2013 bestellten zehn Vega schon neun verkauft.

Bald wird Arianespace nachordern müssen, denn bei der Startrate geht das Los schon Anfang 2017 aus.

Die Vega hatten viele schon vor ihrem Jungfernflug abgeschrieben, so Eugen Reichl. Nun ist sicher klar, das die Vega vor allem eine Rakete war die Italien wollte. Die Nation hat zu Mitteln gegriffen die nahe an Erpressung gehen und inzwischen wohl bei der ESA Usus sind, zumindest wenn man sich die Ergebnisse der letzten Ministerratskonferenzen ansieht. Damals war es die Drohung aus der Ariane 5 Entwicklung auszusteigen um die Vega zu finanzieren. Man bekam Frankreich mit ins Boot wodurch die Finanzierung gesichert war. Frankreich denkt ja etwas langfristiger und mehr an die eigene Kompetenz als Deutschland und sah in der ersten Stufe die Möglichkeit die technologische Kompetenz der eigenen Industrie weiterzubringen und stieg so ein.

Wie wir einige Jahre später wissen führt dass dann zu einem Ariane 6 Konzept nur mit festen Ersten und zweiten Stufen. Ein nicht so schlechtes Konzept, das man aber weil Deutschland weniger in neue Technologien investiert dann wieder auf die „Ariane 5 Mini“ abändern musste, von dem ich gar nichts halte.

Dann liefen die Entwicklungskosten ziemlich aus dem Ruder und man hat noch einige subventionierte Starts geordert, damit es genügend Starts gibt um die Rakete im Markt zu platzieren. So gesehen waren beim Jungfernflug die Erfolgschancen nicht so hoch. Auch die Startkosten von 20 Millionen Dollar waren nicht zu halten. Der Jungfernflug war doppelt so teuer.

Warum also nun dieser Erfolg? Nun es gibt einige Gründe. Der erste ist die veränderte Lage. Deutschland wollte sich bei der Vega nicht beteiligen, weil russische Raketen vor allem Rockot und Dnepr billiger waren als die Vega. Das hat sich geändert. Russische Träger sind teurer geworden, weil die Inflation in Russland anstieg und vor allem die ausgemusterten Träger am Ende ihrer Lebensdauer angekommen sind. So viele gibt es nicht mehr.

Die gesamte US-Konkurrenz in diesem Nutzlastsegment ist praktisch nicht mehr existent. Die Pegasus ist zu klein uns für ihre Nutzlast extrem teuer. Die Taurus nach zwei Fehlstarts aus dem Rennen und noch viel teurer. SpaceX hat seine Falcon 1 mangels Aufträgen eingestellt und die größere Falcon 1e gar nicht erst entwickelt.

Was bleibt ist noch die PSLV die auch gut im Markt positioniert ist. Sie ist zuverlässig und finanzierbar.

Der zweite Vorteil der Vega ist dass sie mehrere Orbits anfliegen kann und so mehrere Nutzlasten gleichzeitig starten kann, dies bei etwas höherer Nutzlast als die PSLV. Das hat man schon beim zweiten Testflug erprobt und auch der peruanische Satellit wird seinen Platz mit vier anderen Satelliten teilen.

Natürlich bringt der Erfolg auch weitere Vorteile. Arianespace strebt zwei Starts pro Jahr an. Dann kostet ein Start rund 32 Millionen Euro. Kann man die Startrate auf vier pro Jahr erhöhen so sinkt der Preis auf 28 Millionen Euro, was nun wohl gegeben ist.

Wie immer gibt es schon Pläne für Leistungssteigerungen Das verwundert mich etwas, da alle bisher gebuchten Starts deutlich unter der Maximalnutzlast von 1,5 t sind. Die schwersten Nutzlasten wiegen 1,1 t. Das überrascht nicht, da hier das gleiche Argument greift wie bei der Ariane 5 – der Kunde möchte den Satelliten auch auf einem anderen Träger starten und die Alternative wäre dann die PSLV mit kleinerer Nutzlast. Wird man den Booster der Ariane 6 als erste Stufe verwenden so kommt man auf fast 2.200 kg Nutzlast in den Referenzorbit. Mit einer vergrößerten zweiten Stufe (40 anstatt 24 t Nutzlast) sogar 2.500 kg. Ob sich dies lohnt? Ich habe meine Zweifel. Aber zumindest wenn die Ariane 6 kommt wohl unumgänglich denn die P125/135 Booster werden durch ihre hohe Stückzahl deutlich billiger als die P85 Stufen sein. Ansonsten ist die Vega eigentlich optimiert. Das ist ein europäisches Novum, denn bei Ariane 1 und 5 baute man die Raketen so, dass man sie noch nachträglich in der Leistung steigern konnte. Das wurde dem DLR zum Verhängnis, das in zwei Studien untersuchte, ob man sich nach dem Jungfernflug mit einer eigenen Stufe beteiligen könnte, offiziell um die ukrainischen Triebwerke im AVUM zu ersetzen. Das Resultat war, dass man die Nutzlast kaum steigern kann. Es blieb daher bei der Studie. Immerhin wird man durch den Bau der P135 Booster in Augsburg dann ja beteiligt sein. Eher nützlich wäre eine zusätzliche Stufe um z. B. höhere Geschwindigkeiten zu erreichen. Diese könnte aus Feststoff sein oder auch auf Basis eines Apogäumantriebs (wie haben ja keine großen Nutzlasten). Die leistungsgesteigerte Vega C könnte z. B. mit einer Oberstufe einen Galileosatelliten starten (ohne klappt es nicht da diese keinen eigenen Antrieb haben) und so Sojus und Ariane 5 ersetzen z. B. um das Netzwerk schneller aufzubauen oder einzelne ausgefallene Satelliten zu ersetzen (da die Satelliten sich in verschiedenen Bahnebenen befinden ist dies effizienter als ein Doppelstart mit der Sojus außer es fallen gleichzeitig zwei Satelliten pro Ebene aus). Die EU hat ja gerade die Erweiterung von 24 auf 30 Satelliten beschlossen, das wären je einer pro Bahnebene als Reserve – so was kann man kostengünstig nur mit der Vega starten.

Es rächt sich, wie auch bei dem Start auf der Ariane 5 dass man die Satelliten ohne eigenen Antrieb konzipierte: bei Ariane 5 muss man so auf die leistungsschwächere EPS Stufe zurückgreifen und verliert Nutzlast: Eine ESC-B könnte acht anstatt vier Satelliten auf einmal starten wenn diese einen eigenen Antrieb hätten.


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99