Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 616: 10.4.2021 - 16.4.2021

10.4.2021: Sechzig Jahre bemannte Raumfahrt

Heute vor genau sechzig Jahren startete Juri Gagarin zu dem ersten „orbitalen“ Weltraumflug. Warum ich das in Anführungszeichen gesetzt habe, dazu später mehr. Außerdem ist heute der vierzigste Geburtstag des ersten Space Shuttle Fluges, das nun auch schon zehn Jahre lang Geschichte ist. Zeit mal die letzten Jahrzehnte im Rückblick aufzurollen.

Zwischen Gagarins Flug und STS-1 liegt nur ein Drittel der Zeitspanne, in ihre ereignete sich aber am meisten. Russlands Wostokkapsel und die Mercury Raumschiffe der Amerikaner waren vergleichsweise primitiv. Viel zu tun gab es nicht. In den Wostokkapseln war der Kosmonaut nur Passagier und in den amerikanischen Mercurys konnte er einiges machen – musste er aber nicht. Beide Raumschiffe wurden denn auch unbemannt mit Hunden oder Schimpansen als „Passagiere“ erprobt. Russland setzte zuerst Rekorde, die die Amerikaner auch mit Mercury nicht aufholen konnten, weil ihre Kapsel für erheblich weniger Orbits ausgelegt war. Und auf Rekorde kam es im damaligen politischen Klima an. Erst überbot man sukzessive die Aufenthaltsdauer im All, dann folgte die erste Frau als Kosmonautin, sie sollte aber für die nächsten zwanzig Jahre die Einzige bleiben, dann parallele Starts von zwei Wostokraumschiffen. Gagarin umrundete die Erde nicht einmal ganz – er erreichte zwar einen Orbit, bremste aber noch vor Vollenden eines Umlaufs wieder ab. Der Grund lag in der Himmelsmechanik, da sich die Erde nach Osten dreht, verschiebt sich der Landepunkt mit jedem Umlauf nach Westen. Nach zwei Orbits wäre er schon außerhalb des Staatsgebiets der Sowjetunion gewesen. So endete die Mission noch vor Vollendung des ersten Orbits, weshalb Gagarin technisch gesehen zwar eine stabile Umlaufbahn erreicht hat, die Bahn aber nur suborbital war, es fehlten einige Hundert Kilometer für einen ganzen Orbit. Die folgenden Missionen hatten demnach auch eine Länge von einem Vielfachen von 24 Stunden damit die Landung nahe des Startgebiets erfolgen konnte.

Diese ersten Missionen waren riskant, es gab mehrere gefährliche Situationen. Vor allem beim Woschodprogramm, wo man die Wostok so umgebaut hatte, damit drei Kosmonauten rein passen (dank der Öffentlichkeitsabteilung der NASA war es kein Problem für Russland zu wissen, wie weit das Geminiprogramm mit zwei Astronauten war). So stellte man Woschod nach nur zwei Missionen – einer mit drei Mann dafür ohne schützende Anzüge und mit zwei Kosmonauten, diesmal mit Anzügen und einem Ausstieg ins All – wieder ein, denn die Vorgehensweise war ziemlich gefährlich. Auch im Mercuyprogramm lief nicht alles reibungslos. Bei Carpenters Flug ging ihm das Lagekontrollgas aus, das er benötigte. um die Kapsel für die Landung auszurichten. Bei Coopers letztem Flug, der erheblich länger dauerte als die Solllebensdauer des Raumschiffs fielen zum Schluss zahlreiche Systeme aus, weil das Urinsammelsystem leckte und der Urin Kurzschlüsse verursachte.

Besser waren die Raumschiffe der zweiten Generation. Sie waren nicht nur zuverlässiger, sondern setzten auch Menschen als aktive Akteure voraus. Im Geminiprogramm lernten die USA alles, was sie wissen musten, um Raumschiffe im Orbit zu koppeln, EVA Tätigkeiten durchzuführen und sie überholten mit 14 Tagen Missionsdauer auch die Russen. Damit war klar das eine Mondmission die 12 Tage dauern sollte zumindest unter diesem Aspekt möglich war. Das Geminiprogramm wird heute relativ wenig gewürdigt, da es zwischen den Erstleistungen und dem Apollo-Programm mit der Mondlandung liegt. Das war auch der Grund, warum mein erstes Raumfahrtbuch sich mit diesem Programm beschäftigte. Über das schreiben, worüber es schon genug Bücher gibt, ist nicht mein Fall.

Das erste Jahrzehnt gipfelte in der Mondlandung, bei der man aus heutiger Sicht enorm viel Geld zur Verfügung hatte. In der Retroperspektive wundert man sich über vieles, vor allem wenn man den damaligen Stand der Technik bedenkt, das führt ja auch zu der Mondlandungsverschwörung. Doch das Rezept war relativ einfach – Manpower. Es arbeiteten in der Spitze bis zu 400.000 Personen am Programm, wodurch man für jedes noch so kleine Detailproblem das bei Konzeption, Design und Entwicklung auftauchte, man jemanden dransetzen konnte der sich nur mit diesem auseinandersetzte und Lösungen erarbeitete und sich Gedanken machte, was man im Falle eines Ausfalls machen kann.

Russland übersprang ein Programm wie Gemini und wollte gleich die Mondlandung angehen. Ob dies geklappt hätte, mag dahingestellt sein. Da das russische Programm chronisch unterfinanziert war, lag es immer hinter dem US-Zeitplan und wurde nach der erfolgreichen Mondlandung der Amerikaner still und leise eingestellt. Die ursprünglich für das Mondprogramm entwickelte Sojus dient bis heute als Zubringer für Raumstationen und die R-7 Rakete ist bis auf die dritte Stufe auch identisch zu der Rakete die Gagarin ins all brachte.

Das zweite Jahrzehnt steht im Zeichen der Raumstationen. Russland entwickelte Saljut als zuerst militärische Raumstation, bei der die Kosmonauten noch bessere Bilder der Erde machen sollten – ein ähnliches US-Programm namens MOL wurde auch vom DoD geplant aber wegen der Kosten des Vietnamkriegs 1969 eingestellt. Die USA nutzten die Apollohardware für Skylab, die für lange Zeit größte und komfortabelste Raumstation, die es gab. Hinsichtlich freiem Raum und eigenem persönlichen „Zimmer“ ist die Station übrigens bis heute unübertroffen. Die ersten Raumstationen hatten einen Makel – sie wurden mit einem Vorrat an Lebensmitteln, Wasser und Gasen gestartet und war dies verbraucht, so waren sie nutzlos. Das war ein teures Vergnügen.

Mit Saljut 6 änderte sich dies. Die Station war erstmalig durch die Progress Raumschiffe versorgbar, die durch Umbau der Sojus entstanden und in der Folge knackte Russland nicht nur den Aufenthaltsrekord, der Skylab 4 Crew der mit den vorherigen Modellen nicht erreichbar war, sondern stellte nun einen neuen Rekord nach dem nächsten auf.

Die USA hatten sich auf das Space Shuttle konzentriert. Dessen Entwicklung war komplex und verzögerte den Jungfernflug um mehrere Jahre – das er an Gagarins zwanzigjährigem Jubiläum stattfand war auch nicht geplant, denn zwei Tage vorher wurde der Start kurz vor dem Abheben abgebrochen weil die fünf abgebrochen, weil die fünf Bordrechner die sich regelmäßig synchronisieren mussten, nicht im Takt waren. Man behob den Fehler nicht, da er statistisch selten war, sondern startete einfach den Countdown zwei Tage später erneut. Das Space Shuttle ist in der Retroperspektive ein tragisches Programm. Ursprünglich als Versorger einer zeitgleich zu entwickelnden Raumstation konzipiert wurde es bald Opfer von Budgetstreichungen. Die Raumstation fiel weg und damit auch der Zweck des Programms. Die NASA ging auf Forderungen des DoD an wodurch die Fähre dreimal größer wurde und viel mehr Nutzlast transportieren musste. Nun verkaufte man das Programm als eine Investition für die Zukunft. Man würde mit dem Shuttles „Wegwerf“ Trägerraketen einsparen und Wiederverwendung wäre doch immer billiger als etwas wegzuwerfen (hmmm irgendwie erinnert mich das an was …) so würde man Kosten in der Zukunft sparen und durch ausländische Kunden sogar noch Geld verdienen. So bekam man das Programm doch noch genehmigt, wenngleich in einer völlig anderen Konzeption als ursprünglich geplant. Das sah zwei bemannte vollständig wiederverwendbare Stufen vor, bei dem beide stufen auf einem Flugplatz landeten. Drei Jahrzehnte später stellte man es ein, nachdem man meistens Nutzlasten befördert hatte, die man auch so befördern konnte oder teure Kurzzeitmissionen durchgeführt hatte. Das war just zu dem Zeitpunkt als eine Raumstation, für deren Versorgung das Shuttle ideal gewesen wäre, fertiggestellt worden war.

Damit sind wie bei dem dritten Jahrzehnt nach Gagarin angekommen. Bemannte Raumfahrt war nun Routine geworden. Russland konzentrierte sich auf seine Raumstationen, Saljut 6 wurde durch Saljut 7 ersetzt die durch ein Modul erweitert werden konnte und besser auf die Versorgung ausgelegt war. Es folgte Mir, bei der man nun ein Kernmodul hatte, das nach und nach durch weitere Labors erweitert werden konnte. Die Aufenthaltszeiten wurden immer länger und bis heute sind die an Bord vom Mir aufgestellten Rekorde für Langzeitaufenthalt im All ungebrochen. In den USA durchmachte das Space Shuttle Programm eine Wandlung. Nachdem von 1981 bis 1985 die Flugzahl immer weiter ansteig, es zahlreiche Erstleistungen gab und auch die kommerzielle Vermarktung gut anlief explodierte beim 25-sten Flug die Challenger über dem Himmel von Florida. Wie dann die Untersuchung zeigte, hatte sie die NASA weit von ihrer früher so wichtigen Grundmaxime „Sicherheit zuerst“ entfernt und sich dem Druck gebeugt immer mehr, immer spektakuläre Flüge auch mit Nichtastronauten durchzuführen – kurz vor der Challengerkatastrophe flog der Abgeordnete William Nelson ins All, der nun NASA-Administrator werden soll. Auch die STS-25 war mit einer ethnisch gemischten Besatzung, einer Lehrerin an Bord da keine Ausnahme. Als Folge stand das Programm zweieinhalb Jahre still und von nun an dürfte das Shuttle keine kommerziellen Nutzlasten mehr starten und Satelliten für NASA und DoD auch nur, wenn es keine Alternative war. Diese Starts liefen Anfang der Neunziger dann aus. Nun gab es nur noch Kurzzeitmissionen mit dem Spacelab.

Im vierten Jahrzehnt nach Gagarin änderte sich einiges. Vorher wetteiferten die beiden Großmächte, auch wenn sie nicht mehr direkt konkurrierten – Russland verlegte sich auf die Nutzung einer Raumstation und die ESA auf das Space Shuttle. Mit dem Ende des kalten Kriegs näherten sich beide Nationen an. Es gab schon 1975 die Apollo-Sojus Mission, doch sie blieb leider eine Episode in der Geschichte. Die USA arbeiteten seit 1984 an „Freedom“, eine Raumstation als Gegenpart zu Mir. Das Space Shuttle Programm war nun ja operativ und Reagan war leicht zu überzeugen, dass man nun Russland auch bei den Raumstationen Paroli bieten musste. Leider verlief die Planung nicht so wie gewünscht. Freedom wurde zu teuer und wurde technisch abgespeckt, dann kam die Challengerkatastrophe die zusätzliche Mittel nötig machte und so den Start weiter verzögerte und dann sah der Kongress nicht ein, warum er nach Ende des Kalten Kriegs denn nun eine teure Raumstation finanzieren sollte. Russland hatte noch größere Probleme, das wirtschaftliche System kollabierte als Folge dessen das man jahrzehntelang viel zu große Summen in die Rüstung gestückt wurde und schon der Weiterbetrieb von Mir war schwer durchzuführen. So kamen beide Weltraumorganisationen schnell zu einem auf dem Papier genialen Plan – warum legt man beide Stationen nicht einfach zusammen und nennt das ganze „ISS“? Damit flossen auch in den UISA wieder die Mittel, denn nun war die Weltraumstation ja ein Beispiel von internationaler Zusammenarbeit. Europa und Japan sprangen ebenfalls schnell auf den Zug auf – Europa plante damals noch eine eigene Raumstation, Columbus und einen eigenen Space Shuttle Hermes, stellte Raumgleiter aber ein und reduzierte Columbus von drei auf ein Modul, das nun an die ISS andockte anstatt, wie vorher, auch selbstständig operieren konnte.

Leider zeigte sich aber, dass Russland nicht der gleichberechtigte Partner war, als der sie sich ausgaben. Die russischen Module wurden nach und nach gestrichen, die beiden Module Sarja und Swesda, die gestartet wurden, wurden nur durch technische und finanzielle Hilfe des Westens möglich. Als letztes russisches Modul soll dieses Jahr Nauka hinzukommen – 14 Jahre nach den Planungen und das Modul war sogar mal für die Mir bestimmt, die nun schon seit 20 Jahren auf dem Grund des Pazifiks liegt...

Schlimmer erwischte es die USA, bei denen kurz vor Ende des vierten Jahrzehnts ein zweites Shuttle, die Columbia beim Wiedereintritt verloren ging. Dieser Verlust führte nun zum Ausstieg aus dem Programm. Die Shuttles sollten die ISS noch fertigstellen und würden dann ausgemustert werden.

Als Ausgleich hob 2005 George W. Bush das Constellation Programm aus der Taufe. Es war mehr oder weniger eine Kopie von Apollo, allerdings mit einem Manko: Während des Apolloprogramms hatte die USA ein Vielfaches der Finanzmittel, die sie 2005 hatte. Mehr Geld wollte Bush aber nicht ausgeben. Stattdessen sollte Constellation dadurch finanziert werden, das die Space Shuttles ab 2009 ausgemustert werden und die ISS ab 2015, vorher ging es nicht, weil man Verträge mit JAXA und ESA für einen zehnjährigen Betrieb nach Fertigstellung abgeschlossen hatte. Technisch war Constellation aber eine Wiederholung von Apollo, sodass selbst der NASA Chef von „Apollo on Steroids“ sprach. Vor allem aber reichten die Mittel, selbst wenn beiden Vorgängerprogramme eingestellt sind, nicht aus. Als Barrack Obama Präsident wurde, lies er Constellation untersuchen und der Augustine Report kam zu dem Schluss das nach dem beabsichtigten Konzept eine Mondlandung erst nach 20309 möglich wäre und das Programm völlig unterfinanziert ist. So wurde es eingestellt und der Betrieb der ISS verlängert, erst auf 2020, inzwischen peilt man den Betrieb bis mindestens 2028 an.

Ganz von Constellation konnte sich die NASA aber nicht lösen. Denn nachdem auch das Space Shuttle Programm auslief, bekamen zahlreiche Volksvertreter im Senat kalte Füße, was mit den Arbeitern in zahlreichen Luft- und Raumfahrtfirmen passieren würde und wie sich dies auf ihre Wahlen auswirkt. So verdonnerte der Senat die NASA zur Entwicklung einer Schwerlastrakete ohne konkretes Ziel, der SLS – dem Senate Launch System. Die Orion die als einziges Constellation-Teilprogramm am weitesten in der Entwicklung, wurde ebenfalls nicht einstellt, hatte nun aber keinen Einsatzzweck mehr – sie dürfte nun auch nicht mehr an die ISS andocken. Dafür hatte die NASA 2006 das COTS-Programm zur Förderung von neuen Firmen im ISS-Programm gestartet, gefolgt einige Jahre später von der Versorgung der ISS durch dieselben Firmen und CCdev – der Entwicklung von bemannten Raumfahrzeugen ohne direkten NASA-Einfluss wie dies bisher bei allen Programmen der Fall war. Zur ISS flog man seit dem Verlust der Columbia mit russischen Sojus.

In diesem Jahrzehnt begann auch China mit den ersten Raumflügen – mit einer Kopie der russischen Sojus und einer Raumstation die doch verdächtig, wie ein Saljut Kernmodul aussieht …

Damit sind wir im letzten Jahrzehnt angekommen. Russland und die USA betrieben gemeinsam die ISS. Alle bemannten Starts erfolgten mit Sojus. Die Versorgung der Station erfolgte durch Russland, die USA ESA und JAXA. Deren Betrieb wurde immer weiter verlängert, aber es ist mit Abstand das langweilligste dieser Jahrzehnte. Seit einem Jahr können die USA nun wieder selbst Astronauten zur ISS entsenden, aber technologisch ist man nicht weiter als vor Jahrzehnten. Nach wie vor wird eine Raumkapsel dafür eingesetzt. Einen Raumgleiter (den DreamChaser) gibt es nur bei den Versorgungssystemen. Indien hat inzwischen unbemannt eine eigene Kapsel getestet aber ansonsten verläuft das indische Raumfahrtprogramm anders als das Chinas relativ ruhig. Russland hat noch immer nicht die Stellung wieder erreicht, die es vor dem Kollaps der UdSSR hatte. Das einzig neue ist das Mondprogramm Artemis, das Trump initiierte. Anders als Constellation soll es international werden. So baute Europa das Servicemodul der Orion, ebenso zusammen mit Japan Module für die Miniraumstation, das „Gateway“. Offen ist aber nach wie vor wie man auf dem Mond landet und was man dort macht. Immerhin sind Aufträge für das Gateway vergeben, die Orion mit SLS startbereit, dazu kommen Verträge mit ESA und JAXA, sodass es unwahrscheinlicher ist, das das Programm wie Constellation einkassiert wird. Im ersten Budgetentwurf der Biden Administration wurden die Mittel für Artemis nicht gekürzt, aber auch nicht so stark angehoben wie bei anderen Programmen.

Vielleicht sollte man neue Wege in der Weltraumfahrt beschreiten. Während man bei Apollo Kennedys Deadline „bis zum Ende des Jahrzehnts“ um 17 Monate unterboten hat, gab es bei den folgenden Programmen Verzögerungen. Die ISS wurde Jahre später als geplant fertiggestellt. COTS mehr als zwei Jahre später abgeschlossen, CCDEV um fünf Jahre. Die Hoffnung liegt auf der kommerziellen Raumfahrt, im Deutschen durch Verwendung des englischen Begriffes „private“ meist falsch als private Raumfahrt übersetzt. So hat das kommerzielle Unternehmen SpaceX:

Oh Entschuldigung, ich stelle gerade fest, das waren nur „Ankündigungen“. Derzeit scheint das Starship noch nicht mal landen zu können und ging bei den letzten vier Versuchen jeweils verloren. Tja dann müssen wir wohl doch auf Artemis warten ;-)

11.4.2021: Wer hat die Größte?

Ja und ausnahmsweise auch mal mit dem richtigen Geschlecht versehen. Es geht nicht um den Größten, sondern es geht um die größte – und zwar die größte Bombe. Ich denke ja im Allgemeinen, das die Menschheit, oder zumindest Politiker, die ja auch Berater haben, Entscheidungen mehr oder weniger vernünftig fällen. Aber bei manchen Geschichten kommen mir doch starke Zweifel. Eine davon ist der Atomwaffenwettlauf nach dem Zweiten Weltkrieg. Amerikaner und Russland überboten sich im Bau immer größerer Atomwaffen.

Zuerst einmal einige Grundlagen. Zuerst gab es nur die Atombomben, im Fachjargon Fissionswaffen, da der physikalische Prozess die Kernspaltung ist. Von den zwei noch vorhandenen Isotopen des Urans ist nur das U-235 als Isotop für eine Atombombe nutzbar. Beim Zerfall werden zwei bis drei Neutronen frei. Wenn eines der Neutronen auf ein weiteres U-235 Atom trifft und es spaltet, so wird eine gleichmäßige Kernreaktion erhalten, die man bei Kernreaktoren ausnutzt, Bei mehr als einem Neutron pro zerfallendem Atom kommt es zu einer Kettenreaktion. Es werden immer mehr Atome gespalten und die setzen dabei enorme Energiemengen frei.

Wesentlich für den Bau einer Atombombe ist es also, in einem bestimmten Volumen genügend U-235 Atome zu haben. Da die U-238 Atome an der Reaktion nicht teilnehmen, muss man zuerst das Uran anreichern – für einen Kernreaktor auf einige Prozent, für Kernwaffen auf einen hohen Prozentsatz. Da man die beiden Isotope nur physikalisch trennen kann, ist dies ziemlich aufwendig und das Haupthindernis für den Bau einer Atombombe auf Basis von Uran. Einfacher geht es, wenn man Plutonium nimmt, dass bei Kernreaktoren aus dem Uran entsteht, denn man kann es leicht chemisch vom Uran abtrennen und es enthält mehr spaltbare Isotope, weshalb die meisten Atombomben der Nuklearmächte heute Plutonium einsetzen. Daher versuchen diese auch den Export von Reaktortypen bei denen man Plutonium „erbrüten“ kann zu verhindern.

Für die Sprengkraft einer Atombombe benötigt man eine Mindestmenge an spaltbarem Material, ansonsten treffen zu wenige Neutronen ein Atom sondern verlassen den Brocken spaltbares Material. Eingebürgert hat sich der Begriff einer „Kritischen Masse“. Er ist aber eigentlich nur für die ersten Entwürfe gültig, bei denen man zwei Massen, jede unterkritisch aufeinander schoss und beim Zusammentreffen die kritische Masse erreichte. Physikalisch genauer benötigt man keine kritische Masse, sondern eine kritische Dichte, das heißt in einem bestimmten Volumen befindet sich eine Mindestzahl an spaltbaren Atomen. Diese Dchte wird heute erzeugt, indem man eine unterkritisiche Kugel aus spaltbarem Material durch Sprengstoff komprimiert. Die Dichte wird so nur kurze Zeit erhöht, das reicht, weil eine Kernspaltung je nach Geschwindigkeit der Neutronen innerhalb von 10-3 bis 10-18 Sekunden abläuft. So kann man auch Atombomben bauen, bei denen die Materialmenge unterkritisch ist. Die Hiroshima-Atombombe hatte gerade die kritische Masse (etwa 50 kg reines U-235) und eine Sprengkraft von 10 bis 15 kt. Die kleinsten gebauten Atombomben haben ein Zehntel dieser Sprengkraft. Dies geht, weil die Kompression durch die Sprengung auch das Material länger zusammenhält, denn natürlich führt die Energiefreisetzung zur Expansion der kritischen Masse. Problematischer ist es Fissionsbomben zu bauen die eine sehr hohe Sprengkraft haben, denn man kann nun auch mehrere unterirdische Massen mit Sprengstoff zusammenführen und so die kritische Masse leicht überschreiten, aber je mehr Teile man hat, desto problematischer wird das. Mit einigen Tricks, wie einem Mantel aus U-238 der Neutronen reflektiert, soll man auf 500 kt Sprengkraft kommen, die größte von den USA jemals gebaute reine Fissionsbombe hatte 525 kT Sprengkraft. Mehr als 200 bis 300 kt Sprengkraft erfordern einen deutlich höheren Aufwand als kleinere Atombomben.

Doch Physiker erkannten sehr bald, das man die enorme Temperatur im Inneren einer Atombombe nutzen konnte, um eine Kernfusion zu ermöglichen. Bezogen auf das Gewicht wird bei der Kernfusion erheblich mehr Energie frei und noch ein Vorteil: das Material ist vor der Zündung nicht radioaktiv. Es gibt keine kritische Masse. Eine Fusionsbombe kann prinzipiell beliebig groß gebaut werden, in der Praxis limitiert der Umstand das das gesamte Material in einem sehr kurzen Zeitraum zur Fusion gebracht werden muss, die Größe. Mit einer Atombombe als Zünder kommt man auf maximal 10 bis 25 MT Sprengkraft, hier limitiert die Sprengkraft der Atombombe die Größe der Fusionsbombe. Doch das kann man auch umgehen, indem man um die Wasserstoffbombe eine weitere Stufe hinzufügt, die durch die Wasserstoffbombe gezündet wird. Praktisch erreicht man dann jedoch bald eine so hohes Gewicht, dass die Bombe militärisch keinen Sinn macht, weil sie zu schwer ist, um sie mit Bombern oder Raketen zu befördern.

Beginnend mit der Zündung der ersten Wasserstoffbombe durch die USA 1952 etablierte sich ein Wettrennen um die größte Sprengkraft. Bei der ersten Wasserstoffbombe schätzte man die Sprengkraft noch falsch ein, sie war mit 10,4 MT noch größer als gedacht. Allerdings war sie die erste Wasserstoffbombe so schwer, dass sie stationär getastet wurde. Das galt auch für die folgende Testserie „Bravo“, bei der mehrere Wasserstoffbomben, nun mit einem optimierten Design und erheblich leichter, getestet wurden. Beim stärksten Test „Bravo“ war eine Sprengkraft von 6 MT prognostiziert worden und erreicht wurden 15 MT. Das lies sich Russland, die bisher Sprengköpfe getestet hatten, die weniger Sprengkraft hatten, nicht bieten und sie bauten die Bombe AN602. Saccharow begrenzte die Sprengkraft der auf 100 MT konzipierten Bombe sogar künstlich, um den Fallout zu reduzieren auf 50 bis 60 MT. Trotzdem war der Test eine Herausforderung denn bei der Sprengkraft gab es eigentlich zu wenig Zeit für das Flugzeug sich in Sicherheit zu bringen. So konstruierte man einen riesigen Fallschirm, der die Fallgeschwindigkeit reduzierte.

Und man testete natürlich auch alle möglichen Explosionsarten – am Boden, in verschiedener Höhe, unter Wasser und sogar im Weltraum, wobei man entdeckte das dabei ein Elektromagnetischer Impuls induziert wird, der Elektronik beschädigen kann. Selbst der Beschuss des Mondes wurde von beiden Nuklearmächte erwogen. Der Test einer Bombe ist das eine. Doch baut man dann auch so große Bomben?

Es gibt auch aus militärischer Sicht einen Nachteil von Atomwaffen mit hoher Sprengkraft, denn die zerstörte Fläche steigt gegenüber der Sprengkraft nicht linear an, eine achtmal höhere Spengrkaft korrespondiert mit einer vierfach größeren Fläche mit derselben Zerstörungswirkung. Bei sehr hoher Sprengkraft kann der Pilz der bei der Explosion entsteht, so große Höhen erreichen, dass er bei dem dort herrschenden niedrigen Druck überexpandiert, wodurch die Waffe einen Großteil der Wirkung der Druckwelle verliert. Die meiste Zerstörungsenergie steckt in der Druckwelle, die Hitze überwiegt nur auf einem Hundertstel der Fläche und die radioaktive Strahlung tötet, was für Militärs von Bedeutung ist, nicht sofort und wird daher meist nicht als relevant angesehen. Daher macht eine sehr große Fusionsbombe dann auch militärisch wenig sinn.

Da bei Atomwaffen die Sprengkraft von größeren Sprengköpfen linear mit dem Gewicht korrespondiert, wird eine Kernwaffe mit hoher Sprengkraft auch schwer und erfordert ein leistungsfähiges Flugzeug oder eine Rakete.

Trotzdem baute man anfangs so riesige Sprengköpfe. Die Atlas ICBM hatten Sprengköpfe mit 3,75 MT Sprengkraft die 1.840 kg wogen. Die Titan schon einen 4.020 kg schweren 9 MT Sprengkopf. Ähnlich war es bei der Sowjetunion, dort wurde die Proton sogar als Interkontinentalrakete konzipiert, die die AN602, also die obige 100 MT Bombe mit 27 t Gewicht transportieren sollte. Dieses Projekt wurde nach dem Sturz Chrustschows aber eingestellt und aus der Proton eine Trägerrakete. Auch bei der R-7 war ein großer Sprengkopf geplant. Er wurde deutlich leichter, allerdings nicht wegen der Reduktion der Sprengkraft, sondern weil eine andere Technologie leichtere Sprengköpfe bei der gleichen Sprengkraft erlaubte. Warum sie so groß sein mussten, ist zumindest mir ein Rätsel. Wenn ich davon ausgehe, dass die Raketen sich gegen militärische Ziele richten, dann sind diese ja selten so ausgedehnt das man hier Megatonnen an Sprengkraft benötigt. Das Militär muss anders gedacht haben. So kam die Entwicklung der Rakete als Träger für Atomwaffen ja auch erst in Bewegung, als die Wasserstoffbombe entwickelt war, vorher so meinte man zumindest in den USA wäre das kosten/Nutzenverhältnis bei Atombomben zu schlecht. Immerhin verdanken wir dem Umstand das es leistungsfähige Trägerraketen gab. Wie die Raumfahrt wohl verlaufen wäre, wenn die ICBM die Größe von Minuteman gehabt hätten?

Die USA machten schon einige Jahre später eine Kehrtwende, verursacht durch die Entwicklung von Raketen mit Atomsprengköpfen auf U-Booten. Diese mussten wesentlich kleiner sein, sonst hätte ein U-Boot die Rakete nicht transportieren können. Dafür wurden dann auch kleinere Nuklearsprengköpfe entwickelt. Das führte dann auch zur Entwicklung kleinerer landgestützten Raketen wie den Minuteman. Russland blieb dagegen zumindest bei den landgestützten Raketen noch lange bei den relativ schweren Sprengköpfen.

Die Verkleinerung der Sprengkraft hat aber nichts an der nuklearen Bedrohung geändert. Es wurden jeweils 54 Atlas und Titan stationiert (die Titan ersetzten die Atlas), aber 1.000 Minuteman. Jeder Sprengkopf hatte zwar weniger Sprengkraft aber es waren sehr viel mehr. Ende der Sechziger Jahre wurden dann die MIRV eingeführt, also mehrere Sprengköpfe pro Rakete, die separat nach Brennschluss auf verschiedene Zeile gelenkt werden können. Das vergrößerte die Zahl der Sprengköpfe nochmals. Russland zog nach – während der ganzen Zeit war es so das Russland sowohl was Anzahl der stationierten Raketen, wie auch Sprengköpfe angeht, den USA nachhinkte. Das hatte wirtschaftliche Gründe, vor allem aber technische Gründe. Die MIRV wurden von Russland erst deutlich später eingeführt da sie die Technologie erst später beherschten.

Viel gelernt hat man meiner Ansicht nach nicht. Es gab ja noch den Nachrüstungsbeschluss der NATO, mit initiiert von Helmut Schmidt. Der meinte man müsste in allen Bereichen mit der Sowjetunion gleichziehen. Russland ersetzte ihre alten Mittelstreckenraketen aus den Fünfzigern durch neue mit größerer Reichweite und MIRV. Darauf müsste man mit der „Nachtstationierung“ weiterer US-Waffen begegnen und „das Gleichgewicht“ zu bewahren. 1975 hatten die USA über 27.000 Atomsprengköpfe. Die meisten davon mit einem vielfachen der Sprengkraft der Hiroshima-Bombe. Mit fiel es schon damals sehr schwer zu glauben, dass man schon für diese vielen MIRV überhaupt so viele Ziele finden würde. Ich glaube nicht das Russland so viele Militärbasen hat, ja selbst wenn man zivile Ziele angreift – auch so viele Städte gibt es dort sicher nicht. Bei der damaligen Einwohneranzahl Russlands und des Warschauer Pakts hätte man wohl pro 10.000 Einwohner, also pro Kleinstadt einen Atomsprengkopf gehabt. Auch war für mich die Argumentation das Russland sonst Deutschland nuklear angreifen könnte und die USA in diesem Falle nicht mit einem Gegenschlag antworten würden nicht nachvollziehbar. In Deutschland waren mehrere Hunderttausend GI stationiert, eine Kaserne lag direkt an unserem Ortsrand. Unter denen würde es enorm viele tote geben. Bedenkt man das im ersten Weltkrieg die Versenkung, der Louisiana zum Kriegseintritt der USA führte, erschein mir das sehr unwahrscheinlich.

Viel geändert hat sich seitdem nicht. Gorbatschow machte Reagan den Vorschlag alle Atomsprengköpfe bis auf 100 abzuschaffen. Es kam nicht dazu. Die Projektion für 2022 sind für beide Länder zusammen 9.000 Sprengköpfe. Mit großem Abstand folgt dann China mit 320. Was hat man bei mehreren Tausend Sprengköpfen mehr an Sicherheit, als bei 320? Bedenkt man die Zerstörungskraft jeder einzelnen Atomwaffe und vergegenwärtigt man sich Hiroshima und Nagasaki, so finde ich schon 320 Sprengköpfe ziemlich viel. Jeder möge nur mal versuchen, so viele US-Städte zu finden. Nach Wikipedia gibt es 302 Städte in den USA mit mehr als 100.000 Einwohner. Hiroshima und Nagasaki hatten damals jeweils zwischen 240.000 und 260.000 Einwohner, von denen 100.000 bzw. 70.000 starben.

Dabei fing ja alles recht klein an.1950 hatten die USA 299 Sprengköpfe, auch schon ziemlich viele, doch im Jahr vorher hatte Russland ihre erste Atombombe gezündet und in der Folge wurden immer mehr Sprengköpfe gebaut. Meiner Ansicht nach ist Verstand beim Militär ein absolutes Einstellungshindernis. Das zeigt sich in dieser Aufrüstung wie auch zahlreichen militärischen Projekten angefangen von der A-4 bis zu SDI. Was immer einen militärischen Vorteil verspricht, wird finanziert, egal wie unsinnig oder ressourcenverbrauchend es ist. So auch bei den Menge an Rüstungsgütern. Welchen Sinn haben Tausende von Sprengköpfen und welche Abschreckung bieten sie mehr als einige Hundert?

13.4.2021: Söder oder Laschet?

Oder wie es woanders heißt: Skylla oder Charybdis, Pest oder Cholera? Über den Kanzlerkanidaten der Union wollte man heute bei CDU und CSU entscheiden. Doch nachdem das CDU-Präsidium für Laschet ist, einige prominente Politiker sich auch für ihn geäußert haben ist alles anders. Nun will Söder die Entscheidung nun doch auf Ende der Woche verschieben, damit natürlich alle Parteimitglieder entscheiden können und nicht nur das CDU-Präsidium, wohl wissend das er in den Umfragen auch innerhalb der CDU weit vor Laschet liegt. So sieht also bei Söder der respektvolle Umgang untereinander und das Akzeptieren der Entscheidung aus, von dem gestern noch die Rede war. Von Merz und Röttgen hört man natürlich gar nichts mehr.

Mal abgesehen davon, dass Söder schon heute die gestrige Aussage, man werde, die Entscheidung der CDU für Laschet akzeptieren, heute schon nichts mehr wissen will – umgekehrt wird sicher die CSU sich ja nicht für Laschet entscheiden, halte ich ihn wie auch Laschet nicht für einen guten Kanzlerkandidaten.

Söder hat sich in der Coronakrise mit harten Entscheidungen und Forderungen immer nach immer mehr Beschränkungen profiliert, wohl wissend, das die Leute „Macher“ eher honorieren als „Abwäger“ oder „Mahner“ (ich weis als SpaceX-Kritiker, wovon ich rede). Umgekehrt machte Laschet bisher eher eine Figur als Öffner, so für die für Nordrhein-Westphasen so wichtige Möbelindustrie und auch sonst war er eher für Lockerungen. Nun ja bis vor einer Woche, als er „nachgedacht“ hat. Ich denke wohl das Nachdenken ging so: „Söder hat bessere Umfragewerte, bald steht die Entscheidung für den Kanzlerkandidaten an und seine harte Politik kommt besser an als meine. Wie kann ich dem begegnen? Ich muss wohl auch etwas Härte zeigen bloß wie? Hmmm es muss dramatisch sein, also am besten ein Lockdown, aber es sollte doch versöhnlich klingen – Impflockdown? Ne, kann missverstanden werden. Frühlingslockdown? Nee dann denken die das zieht sich bis in den Juni rein – ich habs: Brückenlockdown. Brücken verbinden, Brücken öffnen Wege. Genau so mach ichs“. Ging ja wie wir wissen ziemlich in die Hose. Außer ihm war niemand dafür und er erntete viel Spot für den Begriff des Brückenlockdowns.

Aber man muss die Politik eben nicht an den Aussagen messen, sondern Ergebnissen. Inzwischen reden ja alle von der dritten Welle – meiner Ansicht nach ist die zweite ja noch nicht mal abgeebbt. Da kann man Bilanz ziehen. Da inzwischen die meisten Infektionen aus der zweiten Welle stammen und somit die Ausgangslage, wo es die meisten Infektionen durch die Faschingsferien gab, wo viele Bayern und Baden Württemberger in Ischgl sich angesteckt haben keine Rolle mehr spielt, ist das zulässig. Bei den aktuellen Infektionszahlen haben denn auch zwei ostdeutsche Bundesländer die Spitze erklommen, bei denen im letzten Frühjahr das Infektionsgeschehen relativ überschaubar war. Also mal ein Blick auf die Zahlen des RKI von heute, 12.4.2011:

Land

Infektionen/100.000 Einwohner

Todesfälle/100.000 Einwohner

BRD

3.624

94,4

Bayern

4.045

100,2

Nordrhein-Westfalen

3.621

81,3

Also der Kurs von Söder, der bei der öffentlichen Meinung ankommt, ist in seinem eigenen Bundesland und dort ist er als Landesfürst ja alleine verantwortlich, nicht erfolgreich. Sowohl bei den Infektionen wie auch Todeszahlen liegt er etwas schlechter als der Bundesdurchschnitt. Laschets Bundesland liegt ziemlich genau bei den Infektionen im Schnitt, bei den Todesfällen deutlich darunter. Warum es dort weniger tote gibt, kann man nur spekulieren, ich würde drauf tippen das in NRW wegen der hohen Siedlungsdichte viel mehr Krankenhäuser gibt als im Bundesdurchschnitt.

Also nur anhand der Leistung bei der Corona-Pandermie kann man sicher beiden kein Lob aussprechen. Bei den Infektionszahlen, und die kann der Politiker am ehesten beeinflussen liegen beide entweder im Bundesdurchschnitt oder schlechter.

Persönlich sehe ich Laschet als das, was sein Name aussagt: lasch. Ich verbinde mit ihm nicht irgendeine politische Vision oder ein Ziel. Umgekehrt sehe ich bei Söder nur die Programmatik nach Rechts zu rücken, schon erkämpfte Freiheiten wieder zu beschränken. Das hat er in den letzten Jahren beginnend ab 2015 gezeigt., Vor allem zeigt aber sein politischer Aufstieg, wie er skrupellos alle aus dem Weg räumt die ein Amt haben das er anstrebt. Sollte so jemand Kanzler von Deutschland werden? Brauchen wir einen zweiten Mini-Trump oder Mini-Johnson (das Wörtchen „Mini“ soll ausdrücken, dass ich zwar den Charakter ähnlich wie bei den beiden genannten Politikern einschätze, aber Söder doch noch für intelligenter handelnd, als diese einschätze).

Ehrlich gesagt, ich finde beide Kandidaten bescheuert. Ich hoffe das sich das wiederholt, was schon 1980 und 2002 so war, das bayrische Kandidaten in ganz Deutschland nicht ankommen. Die Bayern sind – nun ja etwas speziell, vielleicht vermissen sie die Monarchie. Sie haben ja auch eine Partei, die es im Bund nicht gibt, und nennen ihr Bundesland „Freistaat“ und sie wählen eben die CSU egal, was die macht. Ich halte nicht viel von der Politik Merkels in den letzten 16 Jahren. Sie hat vieles verschlafen, vertritt vor allem Industrieinteressen und löst Probleme mit Geldzahlungen wie beim Atom- und Kohleausstieg. Neben dem „Wir schaffen das!“ 2015 hat mich nur die Aktion in der Frühphase der Pandemie 2020 beeindruckt. Wie man den Meldungen entnimmt, wollte sie im November einen erneuten kompletten Lockdown, also das jeder zu Hause bleibt und es Betriebsferien gibt. Auch wenn man sonst in der Politik nicht so viel von ihrer Vorbildung als Physikerin sieht, dürfte ihr naturwissenschaftlicher Background sagen das das wirksamste Mittel ist alle Infektionsketten zu unterbrechen, wenn man die Leute isoliert, sie zu Hause bleiben, denn wo steckt man sich an – da wo viele Menschen zusammenkommen und die Räume geschlossen, was im Winter der Normalfall ist. Aber die Länderfürsten, und dazu gehörte sowohl Laschet wie auch Söder, wollten keinen totalen Lockdown, sondern die Wirtschaft mit Fabrikhallen, Großraumbüros oder Großschlachtereien am Laufen halten und natürlich auch den staatlich finanzierten Nahverkehr mit engen Bussen und Bahnen. Weshalb wir uns fünf Monate später immer noch mit der Welle rumschleppen anstatt das Sie wie im letzten Frühjahr wieder abebbt.

Immerhin einen Vorteil haben beide Kandidaten: Mit ihnen kann die CDU nicht punkten und ich hoffe das hilft der Partei die favorisiere ....

{Edit]

Nach einigen Tagen frage ich mich was die CDU und CSU geritten hat sich auf dieses Spiel einzulassen. Die Ausgangslage war doch die, dass man wusste, das sowohl Söder (obwohl er immer betonte sein Platz wäre in Bayern) wie auch Laschet für das Kanzleramt kandidieren. Da erwarte ich das die beiden das unter sich vorher klären. Das ist nicht passiert. Beide haben es darauf ankommen lassen, dass die Präsidien und Vorstände beider Parteien sich auf einen Kandidaten einigen. Dafür gab es, wenn man es logisch betrachtet, nur zwei Kombinationen. Da die CSU immer für Söder sein würde, war nur das Ergebnis bei der CDU offen. Söder meinte wohl das viele dort auf seine guten Umfragewerte schauen und für ihn sind. Genauso gab es die Möglichkeit und die ist angesichts der loyalen Haltung vieler CDU-Abgeordnete, dass die meisten für Laschet sind, was nun ja auch so war.

Nachd em Votum der CDU wäre eigentlich das Thema erledigt. Söder ist eben „nur“ der Chef der kleineren Partei und müsste sich dem Votum der „großen Schwester“ beugen. Stattdessen trommelt man aber die Fraktion zusammen und bekommt ein Ergebnis, das sich jeder so zurechtlegen kann, wie er will. Von 245 Anwesenden meldeten sich 66 zu Wort. Von denen waren 44 für Söder, 22 für Laschet. Söderanhänger interpretieren das als eine 2/3 Mehrheit für Söder, CDU-Anhänger sagen 44 von 245 Abgeordneten waren für Söder und 201 eben nicht. Kurz: nun ist die Situation erst recht verfahren.

De Fakto kommt aus der Zwickmühle nur einer raus, ohne demontiert zu sein: Söder. Laschet wäre als CDU-Vorsitzender demontiert, wenn seine eigene Fraktion gegen ihn stimmt. Söder kann sich dagegen wieder in nach Bayern zurückziehen als absolutistischer Herscher (Ministerpräsident und Parteivorsitzender) und weiter gegen Berlin Politik machen.

Ich glaube auch für die Chance auf das Kanzleramt wäre langfristig Laschet besser. Jetzt dominiert Corona die Nachrichten, doch im Sommer werden die meisten geimpft sein, das Leben hoffentlich normal und dann geht es um die Themen für die nächsten Jahre. Gerade Corona zeigte doch, wo wir enorme Defizite haben. Nicht gerade neu, bei der Bürokratie die Hilfenbeantragung und Bewilligung verkompliziert und in die Länge zieht. In der Nutzung von IT-Technologien sowohl in Bildung wie auch im Privaten für das „Home Office“, wozu auch der Netzausbau gehört (übrigens im Verantwortungsbereich von CSU-Minister Andreas Scheuer), in einer Form eines Föderalismus, der bei einer Pandemie eher kontraproduktiv ist. Dann gibt es die Dinge die nun einige Zeit lang verdrängt wurden, aber nach wie vor brennend sind: Klima, Verkehr, Bekämpfung der Einkommensschere, bezahlbare Medizin und Absicherung der Renten über einige Jahre hinaus. Über all das wird man für vier Jahre entscheiden.

Dann dürften die anderen Parteien und die Medien alte Aussagen von Söder herauskramen, der gerne den Scharfmacher spielt und über Ziel hinausschießt. Vor allem aber werden die Wähler sicher daran erinnert, welche Leistung in den letzten Jahrzehnten CSU-Minister vollbrachten. Die fühlten sich nämlich nicht ganz Deutschland verpflichtet,. Sondern nur ihren Wählern in Bayern. Ob das die Wähler in „Rest“-Deutschland wollen?

Die Ausgangslage hat Friedrich Merz prägnant beschrieben: „Wir sind noch ganze drei Prozentpunkte von einer Bundeskanzlerin Annalena Baerbock entfernt. Wir drei runter, die Grünen drei hoch – dann ist die Bundestagswahl 2021 gelaufen“. Denn in den letzten Umfragen liegt die CDU bei 27 Prozent, die Grünen bei 22 bis 23 Prozent. Die CDU ist (vor dieser Diskussion) auf einem Allzeittief. Ich glaube nicht das sie so viel hinzugewinnen, das sie mit einem Juniorpartner wie der FDP eine stabile Mehrheit haben. Dann wäre die nächst einfachere Koalition Grüne/CDU. Doch wie soll eine solche unter Söder gehen?

 15.4.2021: Bemannte Raumfahrt – die nächsten Jahrzehnte

Nachdem ich gestern auf die letzten 60 Jahre der bemannten Raumfahrt - beginnend mit dem Flug Gagarins zurückgeblickt habe, kommt heute ein Ausblick auf die Zukunft. Allerdings nicht über 60 Jahre denn ich will ja noch erleben, ob meine Prognose richtig lag und bei weiteren 60 Jahren müsste ich dazu 116 werden. Das halte ich doch für eher unwahrscheinlich und beschränke mich mal auf die nächsten 30 Jahre.

Allerdings so viel gibt es auch nicht zu berichten, denn betrachtet man die letzten 30 Jahre so hat sich nicht so viel getan – erste erdnahe Flüge ins All mit Kapseln, die Mondlandung, Raumstationen, wiederverwendbare Raumfahrzeuge. Das alles fand in den ersten 30 Jahren statt. Seitdem kam keine grundlegend neue Technologie hinzu, nur wurde die Technik besser bzw. ist alles zuverlässiger und professioneller geworden.

Ich sehe auch keine technische Revolution am Horizont die daran etwas ändern könnte und damit Dinge ermöglicht, oder bisherige Missionstypen drastisch verbilligt. Wie wird es daher weitergehen? Nun ziemlich unaufgeregt denke ich. Fangen wir mit der erdnahen Raumfahrt an. Ich könnte mir vorstellen, dass es dann keine von einer westlichen Raumfahrtnation mehr betriebene Raumstation mehr gibt. China und Indien mögen aus politischen Gründen dann vielleicht eine (noch) haben, aber ich glaube nicht das man nach der ISS noch mal 130 Milliarden Dollar für eine Raumstation ausgibt, die schlussendlich nicht viel mehr leisten wird als die ISS heute.

Stattdessen wird es mehr kommerzielle Raumfahrt geben. Auch sie ist ja nicht neu. Es gab in der Aufbauphase der ISS als die Stammbesatzung auf zwei Personen beschränkt war immer wieder bis 2009 Touristen, die den dritten Sitz der Sojuskapsel genutzt haben und dann mit der vorherigen Crew eine Woche später zurückkehrten. Mit den nun vorhandenen Zubringern Crew Dragon und Starliner gibt es jetzt schon eine Überschusskapazität an Sitzplätzen für die reguläre Versorgung der ISS, obwohl beide Raumschiffe, die für maximal sieben Personen Platz bieten nur mit vier Insassen starten und der erste rein kommerzielle Flug ist auch angekündigt. Die NASA hat auch den Weg freigemacht für Weltraumtouristen an Bord der ISS – sie hat sich solange die nur mit russischen Sojus zur ISS kommen konnten immer dagegen gewehrt, nun mit amerikanischen Vehikeln sieht das natürlich gaaaanz anders aus. Allerdings wurden die Preise für in Anspruch genommene Leistungen deutlich angehoben, sind aber immer noch nicht kostendeckend, wie man zumindest bei den transportierten Massen leicht feststellen kann, wenn man anhand der Ausgaben für ISS Versorgung und die Preise pro Tag einen Schlüssel berechnet.

Ich glaube nicht mal das kommerzielle Flüge für Weltraumtourismus als florierenden Markt viel preiswerter werden müssen. Es gibt auf der Welt ziemlich viele Menschen, die sind unglaublich reich. Die leisten sich eigene Flugzeuge, die keine kleinen Passagierflugzeuge sind, sondern umgebaute Jumbo Jets und die haben Jachten, die benötigen mehrere Dutzend Personen als Besatzung. Solche Dinge kosten im dreistelligen Millionenbereich, da sind 40 bis 60 Millionen Dollar, so viel kostet derzeit ein Sitzplatz bei einem kommerziellen Start, durchaus zu verschmerzen, ähnlich wie es auch Leute gibt die eine Weltreise auf einem Kreuzfahrtschiff machen und dafür so viel ausgeben, wie ein Mittelklassewagen kostet. Ich glaube für dieses Klientel ist etwas anderes ausschlaggebend. Solange die Transporte nur von Roskomos durchgeführt wurden, mussten alle Weltraumtouristen ein Kosmonauten-Basistraining durchlaufen und das dauert Monate. Wer so reich ist, hat nicht die Lust sich monatelang auf einen Trip von ein oder zwei Wochen vorzubereiten. Eher bezahlt er ein zweites Ticket für jemanden der alle Arbeit für ihn erledigt. Wer Passagier in einem Flugzeug ist, oder auf einem Schiff, muss das ja auch nicht steuern können, dort gibt es eine kurze Einweisung in die Sicherheitsmaßnahmen im Falle eines Falles. Ich halte das auch für nicht unmöglich, denn ausgereift ist die Technik nach Jahrzehnten. Die heutigen Raumschiffe können im Prinzip vom Computer alleine gesteuert werden. Wenn dann noch ein Profiastronaut als Pilot für Notmaßnahmen an Bord ist, denke ich reicht das. Kommerzielle Unternehmen können ihre eigenen Richtlinien für Missionstraining aufstellen und so sehe ich dafür eine Zukunft.

Man wird an eine kleine kommerzielle Raumstation andocken, die Versorgungsgüter kann man selbst mitführen, denn wir reden dann sicher nicht von Monaten im All, sondern ein bis vielleicht vier Wochen. Das alles ist heute schon möglich.

Wird es entscheidend billiger werden? Ich denke nicht. Heute ist schon die Falcon 9 mit Crew Dragon die billigste Möglichkeit ins all zu kommen. Die Rakete ist zu 70 % wiederverwendbar. Ähnliches gilt für die Kapsel, bei der nur der Verbindungsring zur Rakete verloren geht. Mit 100 % Wiederverwendung wie beim Starship versprochen, wird sich nur durch die Wiederverwendung nichts viel an den Kosten ändern. Eine Reduzierung wäre durch mehr Passagiere möglich, die im Starship Platz haben. Auf der anderen Seite muss man dann auch so viele Personen mit eigenem Terminplan für einen Trip zeitgleich starten, was angesichts des Klientels dann doch wieder schwierig wird. Vielleicht wird es in 30 Jahren auch kein Starship sein, sondern ein kleines Shuttle. Der Dream Chaser ist heute so ein kleines Shuttle. Er wurde der NASA von Sierra Nevada auch für Passagiertransporte angeboten und basiert auf einem NASA-Enwurf für ein Rettungsboot für die ISS Astronauten. Er wäre dann ebenfalls zu 100 % wiederverwendbar. Sierra Nevada will nun seine Weltraumsparte ausgliedern, weil sie meinen das ihr Umsatz in den nächsten zehn Jahren von 400 Millionen Dollar auf 4 bis 5 Milliarden Dollar anwachsen will – nur mit Transporten zur ISS kann man nicht mit solchen Einnahmen rechnen.

Ebenso sind Missionen zum Mond – entweder als Swing-By wie Apollo 13 oder um in eine Umlaufbahn einzutreten denkbar. Für Ersteres benötigt man eine dreimal stärkere Trägerrakete als für eine LEO-Mission und das wäre jetzt schon möglich, für Letzteres dann eher ein fünf- bis sechsmal stärkere Trägerrakete was dann die Kosten doch ziemlich in die Höhe treiben würde, denn dann ist man bei einer Schwerlastrakete wie der SLS, die nicht nur teuer in der Produktion, sondern auch in der Entwicklung ist.

Doch was ist mit den großen Vorhaben? Wernher von Braun wollte nach der Mondlandung zum Mars aufbrechen. Das war 1969, inzwischen sind über 50 Jahre vergangen und eine bemannte Marsexpedition ist nicht geplant. Ich denke, daran wird sich auch nichts ändern. Das Mondlandeprogramm war ein Sonderfall. Es entstand aus der Vorstellung die USA wären Russland technologisch hinterher und vor allem dies würde sich auch auf die politischen Beziehungen zu anderen Staaten auswirken, die dies auch so sehen könnten. Es gibt nicht wenige Stimmen, die sagen, dass man Apollo wäre, Kennedy nicht ermordet worden wahrscheinlich Mitte der Sechziger wieder abgebrochen hätte, als klar wurde, dass man mit Gemini Russland überholt hat. Eine Marsexpedition wäre aber mindestens genauso teuer, was bedeutet das sich der NASA Etat über einige Jahre um ein vielfaches erhöhen müsste. Die Motivation dies zu tun, sehe ich nicht. Vielleicht geht China so etwas an, wenn ihre Wirtschaft weiter so wächst, können sie sich das vielleicht bald leisten – es sind ja auch viel mehr Chinesen als Amerikaner, d.h., wenn beide Nationen dasselbe Jahreseinkommen pro Arbeitnehmer erreicht haben, dann kann China bei gleichem Anteil für die Raumfahrt wie sie die USA aufwenden, viel größere Projekte angehen. Schon heute starten sie von staatlicher Seite her mehr als die USA. Ob sie aber ein Marsprojekt auch durchführen, ist eine andere Sache, denn wie schon geschrieben, Apollo war nur in einem bestimmten politischen Bewusstsein, dem Sputnikschock möglich – es ist auch kein Zufall, dass die berühmte Rede Kennedys nur wenige Woche nach Gagarins Erdumrundung stattfand.

Derzeit läuft Artemis und ich denke es wird auch zu einer erneuten Mondlandung kommen. Denn anders als bei Apollo muss man nicht bei Null anfangen. Die Schwerlastrakete ist inzwischen entwickelt, die Orion ebenfalls. Nun fehlt noch der Mondlander und nach dem derzeitigen Konzept einige kleine Module für eine Raumstation im Halo-Orbit. Das ist finanzierbar. Ob es dann aber viel ein umfangreicheres Projekt wird als bei Apollo, also z.B. eine permanente Station auf der Mondoberfläche? Wohl eher nicht denn dazu wären erhebliche Mehraufwendungen nötig. Schon jetzt ist ja ein bemannter Artemis Flug nur alle in bis zwei Jahre geplant – Bei Apollo waren es bis zu fünf pro Jahr. Das zeigt, wie derzeit am Projekt gespart wird.

Jenseits von Mond und Mars gibt es wenige Ziele. Zur Venus kommt man genauso einfach zum Mars. Doch landen kann man nicht – sie scheidet also aus. Das Gleiche gilt für die anderen Planeten – sie sind noch schwerer erreichbar und zu unwirtlich. Bei Merkur ist es zu heiß, Jupiter und Saturn haben tödliche Strahlungsgürtel, die Missionsdauern werden noch länger. Erdnahe Asteroiden wurden als Ziel von Orion auserkoren, bevor man Artemis auflegte – doch wozu? Sicher man kann viele erdnahe Asteroiden mit einem vergleichsweise geringen Aufwand erreichen, die Missionsdauern liegen dann auch in der Größenordnung von Marsmissionen. Aber dafür, dass Menschen dort sinnvoll arbeiten können sind sie zu klein. Ein Hopser und der Raumfahrer hat Fluchtgeschwindigkeit erreicht.

Ich sehe auch keine Technologie am Horizont, die daran was ändert. Gerade wurde ein Auftrag für die Erforschung von nuklearen Stufen vergeben. Sie können die Nutzlast zum Mars erhöhen, aber nicht so drastisch, als das eine Expedition dann bezahlbarer wird, wobei dies auch nur zum Teil an den Transportkosten liegt. An den klangen Reisezeiten ändern sie nichts. Das gilt auch für Ionentriebwerke, Bei ihnen ist die Missionsdauer eher noch länger. Immerhin offerieren sie eine etwas größere Nutzlaststeigerung als nukleare Triebwerke und sind ausgereift, wenngleich auch nicht in der Größe verfügbar die man für bemannte Missionen benötigt. Sie könnten für unbemannte Teile wie Habitat, Ausrüstung, Treibstoffvorräte zum Einsatz kommen.

Wahrscheinlich wird die bemannte Raumfahrt in 30 Jahren billiger werden – den Trend gab es ja schon in den letzten Jahrzehnten. Der angesprochene Weltraumtourismus könnte davon profitieren. Für Leute die nicht Millionäre sind, könnte es bis dahin mehrere Möglichkeiten Suborbitaltourismis durchzuführen. Hier ist eine vollständige Wiederverwendung möglich, sodass die Kosten, wenn man den Treibstoffverbrauch als Basis nimmt, dann etwa zehnmal teurer als ein Flugticket über den Atlantik sein. Dann wäre Suborbitaltourismus massentauglich und durch die vielen Flüge bleibt er auch preiswert.

15.4.2021: Nukleare Triebwerke – brauchen wir die?

Vor einigen Tagen vergab die DARPA einen Auftrag für die Erforschung nuklearer Triebwerke. Der Auftrag ist (gemessen an den Summen in der Raumfahrt) klein, aber es ist der erste Auftrag, von dem ich seit Jahren höre.

Zeit sich nochmals damit zu beschäftigen. Das grundlegende Prinzip eines nuklearen Triebwerks unterscheidet sich nicht von dem eines chemischen Triebwerks. Hier wie dort wird ein Arbeitsmedium auf hohe Temperaturen erhitzt und verlässt die Düse mit hoher Geschwindigkeit, diese Ausströmgeschwindigkeit multipliziert mit dem Materiedurchsatz erzeugt den Schub der die Stufe antreibet. Der einzige Unterschied ist, dass die hohe Temperatur die das Gas für eine hohe Ausströmgeschwindigkeit erreichen muss, beim chemischen Treibstoff aus einer chemischen Reaktion stammt, die exergonisch ist und beim nuklearen Antrieb durch die Wärmeabgabe eines Reaktors, bei dem eine Kernreaktion stattfindet.

Wie kommen nun nukleare Triebwerke zu einer höheren Ausströmgeschwindigkeit als chemische Triebwerke? Das geschieht nicht durch die Temperatur – bei den Temperaturen, die bei der chemischen Reaktion entstehen, würde der Reaktor verdampfen, sondern der Tatsache das nur Wasserstoff der einzige Treibstoff ist. Nach der Gastheorie hat jedes Gasmolekül bei einer bestimmten Temperatur eine mittlere Geschwindigkeit, die abhängig von seiner Masse ist. Reiner Wasserstoff ist neunmal leichter als das Reakationsprodukt von Wasserstoff und Sauerstoff, Wasser und 22-mal leichter als das Verbrennungsprodukt von Kohlenwasserstoff, Kohlendioxid. Dadurch ist die Geschwindigkeit der Gasmöleküle höher. Diese Geschwindigkeit wird bei einer Düse dann in eine Richtung kanalisiert und führt so zu der Ausströmgeschwindigkeit. Als spezifische Impulse werden je nach Temperatur für nukleare Reaktoren Spitzenwerte von 7.300 bis 8.100 m/s genannt, also Werte die mindestens 50 % höher als bei LOX/LH2 sind.

Der Reaktor

Der Reaktor ist im wesentlich ein Reaktorkern, der jedoch sehr kompakt sein muss, also mit hoher Anreichung arbeitet, denn er muss sehr viel Energie auf kleinem Volumen abgeben. Wie jeder andere Kernreaktor ist er vor Start der Kettenreaktion „relativ“ harmlos. Das heißt, er gibt die Strahlung a,b die diese Menge an Uran natürlicherweise abgibt, das ist selbst bei 100 % U-235 wegen der hohen Halbwertszeit von 700 Millionen Jahre nicht ungefährlich, aber solange man nicht dauernd in der Nähe ist, vertretbar. Sobald er läuft, entstehen kurzlebige Spaltprodukte, wie Iod, Strontium, Cäsium und höhere Actinioide wie Neptunium und Plutonium die wegen ihrer viel kürzeren Halbwertszeit erheblich mehr strahlen.

Das bedeutet, der Reaktor ist sicher, bis er gestartet wird, weshalb die Technologie nur für Oberstufen gedacht ist. Bei einem Unfall vor der Zündung wird so viel Uran freigesetzt, aber die radioaktive Belastung hält sich in Grenzen. Die freiwerdende Strahlung ist aber ein Problem für eine Mission. Selbst wenn man den Reaktor nur einmal einsetzt und ihn danach abtrennt, wird die Besatzung während der Betriebsdauer doch einer hohen Strahlung ausgesetzt, die man abschirmen muss, z.B. indem man den für eine längere Mission sowieso benötigten Wasser und Gasvorrat zwischen Stufe und Kabine legt oder beim Start einen Strahlenschutzraum aufsucht, den es auch wegen der Strahlenbelastung der Sonne geben muss.

Das ist ein Aspekt, den man nicht so gerne sieht. Er ist aber noch das kleinere Problem. Das System muss ja auch getestet werden. Man kann die Stufe bis zu einem bestimmten Maße ohne Reaktor testen, also Treibstofftanks, Pumpensystem, Düse. Die Energie, die ein Reaktor liefert, muss man dann durch chemische Verbrennung herstellen, wobei in der Kompaktheit das wahrscheinlich nicht möglich ist, sodass man sich entweder auf einen Betrieb mit niedrigem Schub beschränken muss oder den Test auf das Anlassen des Triebwerks beschränkt.

Doch dann muss man den Reaktor irgendwann selbst testen. Im Prinzip passiert dabei folgendes: Sobald die Kontrollstäbe des Reaktors herausgezogen werden, findet die Kernreaktion statt, die ohne Kühlung zu einer Explosion des Kerns führen würde. Die Turbopumpe fördert nun Wasserstoff aus dem Tank und entlässt ihn über dem Kern. Er kühlt den Kern herab, wird selbst heiß und expandiert durch die Düse. Die Temperatur des Wasserstoffs ist begrenzt auf die Temperatur bei der die Materialien des Kerns, also die Metalle der Umhüllungen der Brennstäbe oder die Verbindungen in Brennstäben, Moderatoren und Kontrollstäben selbst anfangen zu schmelzen oder zu verdampfen. Genannt werden maximale Temperaturen zwischen 2200 und 2700 K. Für den Brennschluss müssen die Kontrollstäbe wieder eingefahren werden und der Reaktor mit etwas Wasserstoff noch gekühlt werden. Grade das Einfahren von Kontrollstäben in einen mehrere Tausend Grad heißen Reaktor stelle ich mir nicht so einfach vor, zumal bei der hohen Temperatur die Brennstoffelemente sich ausgedehnt haben dürften.

Dazu gibt es zahlreiche Detailfragen zu lösen, so will man ja eine möglichst schnelle Aufheizung auf die maximale Temperatur, weil je höher die Temperatur desto höher die Geschwindigkeit des Gases, auf der anderen Seite darf, der Reaktor sich nicht überhitzen, die Kühlung muss also sehr genau funktionieren. Nach einem Test ist der Reaktor hochgradig radioaktiv. Seine Entsorgung ist nun vergleichbar mit der eines Kernkraftwerks. Schon in den Sechziger Jahre ging das nur ferngesteuert hinter einer Schutzwand mit dickem Bleiglas und damals machte man sich wenig Gedanken, wohin man mit dem Atommüll soll.

Kurz: ich sehe massive Probleme die Technologie ähnlich intensiv zu testen, wie wir das bei normalen Raketentriebwerken tun. Wenn ja, haben wir ein ziemliches Atommüllproblem. Das macht nukleare Triebwerke nicht besser.

Rein theoretisch kann man die Leistung eines nuklearen Triebwerks noch steigern, indem man Temperaturen zulässt, bei denen der Reaktorkern verdampft. Dann muss man durch andere Maßnahmen verhindern, dass zu viel Material mit dem Wasserstoff verloren geht wie einen Wirbelkernreaktor oder eine Eindämmung von Magnetfeldern. Doch das ist bisher nur Theorie und wegen der dabei massiven Verseuchung der Umwelt praktisch nicht auf der Erde durchführbar.

Vergleich mit dem chemischen Treibstoff

Neben dem hohen spezifischen Impuls und selbst unter Ausblendung der Radioaktivität haben nukleare Triebwerke auch Nachteile. Sie funktionieren nur mit Wasserstoff, das heißt aber auch die Tanks wiegen deutlich mehr als selbst die schweren Tanks bei der Kombination LOX/LH2. Der Kernreaktor selbst wiegt auch einige Tonnen. Eine hypothetische Oberstufe als Ersatz für die S-IVB der Saturn V für eine Marsmission hatte folgende Daten:


NERVA Stufe

66.000 kg

12.500 kg

266.8 kN max.

1601 s

7.840 m/s

64.000 kg

Gegenüber der S-IVB hat sie einen viel geringeren Schub (267 zu 1025 kN) dafür ein doppelt so schlechtes Voll- zu Leermasseverhältnis. Ich habe mir auf Basis der Daten für eine beim Start 150 t schwere Stufe die Nutzlast für eine Marsbahn berechnet, einmal mit dem Schub und Vol-l/Leermasseverhältnis der obigen Nervastufe und einmal mit einem Voll/Leermasseverhältnis von 14, wie für die Ares EDA geplant und einem J-2X als Triebwerk. Ziel ist in beiden Fällen ein C3 von 14 km²/s²:

Parameter

Nerva Stufe

Konventionelle stufe

Voll-/Leermasseverhältnis

5,28

11,51

Schub:

266,8 kN

1309 kN

Nutzlast bei 150 t Startmasse

63,800 kg

44.600 kg

Gravitationsverluste

597 m/s

999 m/s

Hinsichtlich Nutzlast ist die nukleare Lösung aufgrund des niedrigen Schubs und der höheren Leermasse zwar immer noch besser, aber nur noch um 50 % mehr Nutzlast. Aufgrund der exponentiellen Auswirkung des spezifischen Impulses würde man mehr erwarten, wenn die Leermasse nicht auch höher wäre und es höhere Graviationsverluste gäbe.

Reaktoren als Energiequelle für Ionentriebwerke.

Wenn man Kernreaktoren im Weltall einsetzt, dann wäre meiner Ansicht nach die bessere Lösung einen normalen, gut abgeschirmten Kernreaktor einzusetzen. Es gibt Technologien die sind weltraumtauglich. SERT-II nutzte einen Stirling-Motor mit niedrigem Wirkungsgrad. Russische Reaktoren flüssige Metalle als Medium die Wärme abzutransportieren.

Für bemannte Missionen benötigt man Reaktoren mit wirklich hohen Leistungen, nicht die maximal einige Kilowatt, die bisher erreicht wurden. Wir reden dann von Megawatt elektrischer Leistung. Sonst ist die Reisedauer zu lang. Ich habe mal das Hyperium Power Modul als Beispiel genommen, das ist gedacht als „Blockkraftwerk“ es ist autonom und daher wäre es auch für eine Raumfahrtmission gedacht. Es wiegt zwischen 15 und 20 t und erzeugt zwischen 27 und 30 MW elektrisch. So kommt man auf eine Leistung von mindestens 1350 W/kg Masse. Solarzellen liegen je nach Technologie bei maximal 85 bis 170 W/kg, bisher entwickelte Reaktoren bei maximal 200 W/kg meist aber deutlich schlechter. Bei so hoher Leistung pro Masse ist der Reaktor nicht das schwerste Subsystem, denn Ionentriebwerke mit der heutigen Technologie haben auch ein Gewicht und das liegt bei maximal 600 bis 700 Watt Stromverbrauch pro Kilogramm Masse. Größere Triebwerke mögen günstiger sein, aber in der Realität kommt zum Gewicht der Ionentriebwerke noch die Hochspannungswandler als Gewicht hinzu und man wird die Triebwerke redundant auslegen. Beides verschlechtert das Strom/Gewichtsverhältnis. Das bedeutet schon bei einem „konventionellen“ Reaktor, nicht einem hochgezüchteten wie bei NERVA ohne jede Abschirmung, wiegt der Reaktor bei einem Ionenantrieb weniger als die Triebwerke. Da er nun nicht mehr vom Gewicht das kritischste System ist, kann er so abgeschirmt werden, das er einen Wiedereintritt übersteht. Für eine Mission mit 150 t Startmasse im Orbit würde ein Hyperion Modul ausreichen je nach Reisedauer sogar ein noch kleinerer Reaktor. Die Nutzlast ist bei Ionentriebwerken abhängig von der Betriebsdauer. Für 15 km/s – ausreichend um auch die Geschwindigkeit für eine Marsumlaufbahn zu reduzieren, kommt man bei der gleichen Nutzlast wie der Nerva Stufe auf eine Gesamtbetriebsdauer von 65 Tagen, knapp die Hälfte davon in einer Erdumlaufbahn – das wäre bei einer Reisedauer von 8 Monaten ein tolerierbarer Zusatzaufwand zumal man bei Ionentriebwerken ja die Reisedauer wieder verkürzen kann, indem man eine Bahn mit einem Aphel jenseits des Mars einschlägt, der Zusatzaufwand an Treibstoff fällt da nicht ins Gewicht.

Allerdings gibt es dann wieder andere Probleme, so ist die Größe eines Ionentriebwerks abhängig von der maximalen Feldstärke, die man aufbauen kann. Ionentriebwerke mit einigen kW Stromverbrauch und Schub im Sub-Newton Bereich haben etwa 20 cm Durchmesser und sind heute State of the Art. Bei der obigen Mission von 150 t Startmasse reden wir über 5.000 mal mehr Schub und entsprechend einem Durchmesser eines Triebwerks bei gleicher Technologie von über 14 m. Daher werden heute Ionentriebwerke für bemannte Missionen erprobt, die sehr hohe Ausströmgeschwindigkeiten haben, da dann mehr Schub bei gleicher Größe möglich ist. Trotzdem sollte man nicht vergessen, dass wir um einen Faktor 1000 von den Triebwerken entfernt sind, die man bei alleiniger Nutzung von Ionentriebwerken benötigt. Entsprechend will die NASA nach ihren derzeitigen Plänen Ionentriebwerke nur als Zusatzantrieb einsetzen und plant vier Triebwerke mit einer Gesamtstromaufnahme von etwa 50 kW als Ergänzung zum chemischen Antrieb.

Sofern sich hier nichts ändert, wird man nur mit Ionenantrieben auch nicht auskommen. Sofern sie aber nur eine Ergänzung sind, reicht dann auch ein kleinerer Reaktor der auch für andere Aufgaben nutzbar ist. Während die Teile einer Marsexpedition die im Weltall arbeiten problemlos Solarzellen und Batterien als Stromquelle nutzen können benötigt die Forschungsstation auf dem Mars einen Kernreaktor. Er liefert nicht nur Strom, sondern auch Abwärme und man wird die gesamte Ausrüstung wie fahrende Forschungsstationen von Wohnmobilgröße, auch elektrisch betreiben. Bedenkt man das die ISS heute schon 220 kW Peakleistung hat, so würde sich meiner Ansicht nach eine Entwicklung lohnen, die in etwa der gleichen Größenordnung wäre und die man dann auch für Ionentriebwerke nutzen kann.

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99