Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 482: 19.11.2016 - 23.11.2016

19.11.2016: 50 Jahre Star Trek – Visionär oder billige Effekte?

Derzeit feiert ja Star Trek sein 50-Jähriges. Und da gibt es einige Berichte, sogar Sonderausstellungen. Bei einer hat ein Radioreporter einen Sammler interviewt, der für eine Ausstellung Stücke zur Verfügung stellte und auf ZDF-Info kam auch eine 90-minütige Dokumentation über zwei Ausstellungen und die Probleme mit der Restauration und dem Beschaffen der alten Requisiten. Dabei ging es auch um die postulierten Techniken und ob sie umsetzbar sind. So was Ähnliches sagte auch der Sammler. Star Trek wäre richtungsweisend gewesen und habe z.B. die Mobiltelefone vorhergesagt.

Ich dachte mir das ist ein gutes Thema für einen Blog. Fangen wir mal an mit dem, was Star Trek bringt und wie realistisch es ist.

Am einfachsten ist es mit dem Reisen mit Überlichtgeschwindigkeit. Es ist physikalisch unmöglich. Es ist dort einfach als Effekt nötig, um die Distanzen zwischen Planeten und Sternsystemen zu überwinden. Das gaben die Drehbuchautoren auch unumwunden zu. Dabei gibt es, da nicht mal einen Hinweis wie schnell Warp ist. Man kann sich nur denken das wohl Warp 8 schneller ist als Warp 5. Auch die Aussage kam von einem ehemaligen Drehbuchautor. Später hat man dann das mit einer Geschwindigkeit verbunden wobei glaub ich Warp 10 nicht mehrerreichbar war. Eine Serie später waren dann aber Raumschiffe noch mit Warp 12 unterwegs.

Das nächste ist das Beamen. Nach der Theorie wird die Materie zersetzt und die Information über sie übertragen und am Zielort zusammengesetzt. Lange Zeit hielt man es für unmöglich. Doch Experimente zeigten, dass man den Zustand eines Photons auf ein anderes übertragen kann. Diese Fernwirkung ist ein Phänomen der Quantentheorie, nach der Photonen miteinander verschränkt sein können. Einstein war diese Fernwirkung immer suspekt. Inzwischen hat man Photonen so „gebeamt“ also nicht die Photonen bewegt, sondern die Information über den Zustand teleportiert.

Es gibt aber zwei Einschränkungen. Das klappt nur mit verschränkten Photonen. Die werden gemeinsam erzeugt und sind fortan immer miteinander verbunden. Das klappt also im Labor, wo man ein Photon links lenkt, das andere rechts, aber nicht wenn ein Photon auf der Erde erzeugt wird und eines auf dem Mond. Das zweite ist, das man so nur die Information überträgt, nicht aber die Materie. Es muss also am Zielort eine Art Maschine geben, die Atomkerne, Elektronen miteinander verbinden kann (wie das sagen die Photonen) und so etwas zu konstruieren wird doch sehr schwer. Wir können heute Atomkerne von Elektronen trennen aber nicht dauerhaft getrennt lagern. Wie eine Maschine Arome zusammenbasteln und genau positionieren kann, ist auch nicht geklärt. Zuletzt wäre die Informationsmenge riesig. Ein Mensch besteht aus etwa 5 x 1028 Teilchen. (Atomkerne und Elektronen) Zumindest die Atomkerne sollte man auf einen Durchmesser von 1 Atomkern genau positionieren können. Man braucht so viele Bits pro Teilchen, dass es genau auf 1 Kerndruchmesser im Koordinatensystem positioniert werden kann. Die Anzahl der Bits hängt von der Ausdehnung des Objektes ab. Bei 2 m Höhe wäre bei einem Durchmesser von 10-15 m für einen wsserstoffkern z.B. 51 Bits nötig um diese 15-stellige Zahl zu codieren. Multipliziert man diese Zahl (eventuell kommen noch andere Bits für Energie oder andere Parameter hinzu) mit den 5 x 1028 Teilchen so ist man bei 2,5 x 1030 Bit. Das entspricht 1,25 x 1018 Terabyte. Bei heute maximal 9 TB pro Platte und 2,5 cm Höhe ist das ein Festplatten-Stapel von 0,36 Lichtjahren Länge.

Man kann es auch anders ausdrücken: Angenommen eine zukünftige Zivilisation könnte in einem Siliziumatom ein Bit speichern. Dann brächte man einen 117 t schweren Speicher. Vor allem muss die Datenmenge auch übertragen werden. Nimmt man das gesamte Spektrum des sichtbaren Lichts als Tansponderbreite und kann pro Herz Frequenz ein Bit übertragen (entspräche z.B. bei 40 MHZ Bandbreite 40 MBit) so braucht man fast 200 Millionen Jahre für eine Übertragung der Information von nur einem Menschen.

Dabei ist diese Form. die zumindest physikalisch möglich wäre, nicht die in Strak Trek eingesetzte: Dort wird die Materie selbst übertragen, sonst könnte man nicht auf einem Planeten ohne Beam-Empfänger landen.

Was es auch noch gibt, ist der Traktorstrahl. Ein Raumschiff wird von ihm erfasst und angezogen. Er ist physikalisch möglich. Licht hat Energie und Licht überträgt so auch Energie. Eine Anwendung sind z.B. Sonnensegel, mit denen man bei uns durch das Sonnensystem reisen könnte. Postuliert wird auch Laserstrahlen auf einen Spiegel zu werfen und so ein Raumschiff zu beschleunigen. Das Problem ist, das Photonen masselos sind und so der Schub recht klein ist. Absorbiert ein Raumschiff in Erdnähe auf 1 m² Fläche das Sonnenlicht, so bedeutet das nur einen Schub von 4,5 millionstel Newton. Das bei 1350 Watt reiner Strahlungsenergie. Bei höherer Energie (energiereichere Photonen oder höherer Intensität wird der Schub höher, aber um ein 20 t schweres Raumschiff (z.B. eine Galileofähre) um 1 m/s zu beschleunigen, bräuchte man die Energie von 6000 GW in Form von Strahlung. Bei einigen Missionen, wo man damit sogar den Schub eines Antriebs kompensieren kann noch viel mehr Energie. Licht wirkt eigentlich als Schub doch wie beim Wind kann man durch schräges Beleuchten und damit Rückreflexion auch ein Objekt abbremsen. Wenn ein Objekt übrigens Strahlung vollständig absorbiert, kann man gar nicht abbremsen sodnern nur beschleunugen.

Kommen wir zu den „Vorhersagen“, die umgesetzt wurden. Es gibt heute Laser, die Raketen zerstören können, es gibt Handys und mit Smartphones kann man sich unterhalten, wie mit dem Computer der Enterprise. War das Star Trek nicht visionär?

Nun ja. Zwar kam das erste Funktelefon nach dem Kommunikator von Star Trek auf den Markt, aber das Prinzip gab es ja schon. Tragbare Funkgeräte gab es schon im Zweiten Weltkrieg, nur eben viel größer. Man hat nur einfach postuliert, dass die kleiner werden. Das ist, wenn man sich die Elektronikentwicklung betrachtet, nun keine so tolle Vorhersage. 1965 war der schnellste Rechner der Welt eine Cyber 6600. Sie war rund 10000-mal schneller als der ENIAC 20 Jahre früher. Es gab schon den Trend zu kleineren Computern, Minicomputer kamen auf den Markt und für Minuteman, Polaris und Apollo wurden Computer in Schuhkartongröße gefertigt. Telefone und Computer setzen beide Elektronik ein, und da ist de Gedankensprung nicht so fern, dass man auch Funktelefone deutlich verkleinern kann.

Gerade beim Computer sieht man das die Serie in ihrer Zeit verhaftet war. Die Cyber 6600 hatte erstmals Monitore. So was sieht man aber nicht auf der Enterprise. Stattdessen wie bei den anderen Computern der damaligen Zeit üblichen Konsolen mit vielen Statusleuchten und Schaltern. Es gibt dort kein Keyboard (obwohl auch schon im Einsatz) sondern Knöpfe und Drehschalter. Beim Bedienkonzept ist es noch anachronistischer: Der Computer wird gefragt „Computer: Wie lange hält noch der Warpkern“ mit der Antwort „Der Warpkern wird bei der derzeitigen Geschwindigkeit in 20 Minuten implodieren“. Das klingt erst mal toll und erinnert mich an Google-Fersehspots, wo man das Handy fragt, weil man gerade die Hände in Teig hat, aber im Normalfall ist es so das man schneller auf eine Taste drückt oder etwas anklickt als zu sprechen, vor allem beim Verabreiten von Informationen ist man um Ellen schneller beim Lesen als beim Zuhören. Auf einer Kommandobrücke, wo viele Leute arbeiten, wäre das Konzept auch idiotisch, da würde dauernd geredet und alle müssten mit Kopfhörern rumlaufen, um die Computerdurchsage zu hören, die für sie bestimmt ist. Das gibt dann wieder Probleme bei Kommandos der Offiziere. So hat Space Quest das ja auch karikiert: Sigourney Weaver ist dort eine blonde Kommunikationsoffizierin, die nichts anderes zu tun hat, als die Anweisungen des Kapitäns für en Computer zu wiederholen und diese wiederzugeben. In der nächsten Generation ist man dann übrigens einen Schritt zurückgegangen auf grafische Oberflächen mit Tochsteuerung. Eben gerade das, was damals gerade Stand der Technik war – viel einfaltloser geht es wohl nicht. Nach Wikipedia gab es schon in den Sechziger Jahren Versuche von Spracherkennung, wobei die Systeme nur einige Worte erkannten. Aber man wusste das es zumindest ging, wenn auch mit der damaligen Hardware nicht fließende Sprache erkannt werden konnte.

Was es auch schon gab als Star Trek erschaffen wurde, sind Laser. Das man an Bord eines Raumschiffes einen Laser wird installieren können, der andere Raumschiffe beschädigt – das wäre angesichts der Dimensionen der Enterprise wohl schon in den Sechzigern denkbar gewesen. Anders sieht es bei den Handlasern aus. Es gibt ja schon lange handliche Laserpointer, doch ihre Energie zu gering. Doch es ist denkbar dass man die Energie, die man braucht, um einen Menschen zu töten in einem handlichen Laser unterbringt. Die Standardgewehrpatrone 7,92 x 57 mm im Zweiten Weltkrieg hat eine Geschossenergie von 3600 bis 4100 J. Vier AA-Zellen mit 1,2 V Spannung und 2500 mA Leistung haben rund 12000 J Energie. Ein Diodenlaser hat einen Wirkungsgrad von 25 bis 50%. Das würde also für einen Schuss reichen. Wenn man die Energie chemisch, z.B. aus Brennstoffzellen, gewinnen würde, wären wahrscheinlich mehrere Schüsse möglich. Aber mit den Lasern in Raumschiff Enterprise kann man ja nicht nur Menschen töten, sondern auch Felsen sprengen, ja teilweise sogar Felsen und Menschen in Luft auflösen und die Energie bringt wohl kein Laser auf, den man in der Hand tragen kann, zumindest nicht mit chemischer Energie und so kleine Nuklearreaktoren das Sie in die Hand passen kann man auch nicht bauen. Die kleinste denkbare Masse scheint mindestens so große wie eine Orange zu sein, und um die käme noch der Mantel.

Was vielmehr auffällt, ist das das Raumschiff gerade nicht für den Weltraum gebaut ist. Die Enterprise ist aerodynamisch. Das müsste sie aber als Raumschiffe nicht sein. Man muss nur als Vergleich die Mondfähre oder auch Satelliten und Raumsonden nehmen. Die sind zweckmäßig gebaut. Die Mission diktiert die Bauweise, nicht die Aerodynamik. Die einzigen die im Star Trek Universum effiziente Raumschiffe bauen (in dem Sinn das Sie maximales Volumen bei minimaler Größe haben sind die Borg mit Kugeln als optimalstem geometrischen Körper und dann Quader. Offensichtlich schient auch in der Zukunft Styling wichtig zu sein – oder es ist wichtig für Fernsehzuschauer.

Das Letzte was es noch bei Star Trek gibt sind Tarnvorrichtungen mit denen Romulaner und später Klingonen einfach verschwinden. In der Sendung wurde eine optische Bank gezeigt bei der je zwei Sammel- und Zerstreuungslinsen das Licht so lenken, das ein Objekt an einer bestimmten Position nicht zu sehen ist. Das wurde als „Tarnvorrichtung“ verkauft. Doch die funktioniert natürlich ohne Linsen vor und hinter dem Raumschiff. Immerhin könnte ich mir denken wir man es anstellt. Man müsste nicht das Licht umlenken, man müsste nur das wiedergeben was man sehen würde, wenn das Raumschiff nicht da wäre und das könnte man vielleicht schon heute umsetzen. Man bräuchte nur die Oberfläche mit Flachbildschirmen die als OLED auch biegsam sind belegen und zwischen denen kleine Kameras positionieren. Die Kameras nehmen das auf was der Beobachter sehen würde, und geben das Signal an die 180 Grad gegenüberliegenden OLED weiter. Das Raumschiff wäre so ein riesiger Bildschirm, der immer die gegenüberliegende Seite zeigen würde – als wie das Raumschiff nicht da wäre. Im fernen Raum ohne große Beleuchtungsquelle wäre die Illusion wahrscheinlich sogar gegeben. In der Nähe eines Planeten wird es schwer werden, weil die Oberfläche spiegelt und auch die genau gleiche Helligkeit erreichen muss. Vor einer Sonne fliegend würde es schwierig sein, die Helligkeit der Sonne zu erreichen. Aber wer weiß, vielleicht finden wir gerade diese Technologie in den nächsten Tarnkappenflugzeugen.

20.11.2016: Zum 75-sten und das schwerste Jahr im Leben

Ariane 5 hat am Donnerstag nicht nur mit 75. fehlerlosen Starts in Folge ein Jubiläum gefeiert, sondern auch einen neuen Rekord eingestellt, nachdem der alte noch von der Ariane 4 stammt, die 2003 nach 74 erfolgreichen Starts in Folge ausgemustert wurde. Zeit das zu würdigen, denn zumindest in einer Wahrnehmung haben die Fehlstarts in den letzten Jahren doch deutlich zugenommen, nachdem es sehr lange wenige gab. Ich habe mein Programm Launchlogconverter erweitert um die Anzeige der erfolgreichen Starts in Folge und zwei Tabellen erstellt. Die Erste gibt die erfolgreichen Starts jedes „Submodells“ an:


Nr.

Submodell

Starts

erfolgreiche Starts in Folge

Fehlstarts in Folge

Erfolge

Erfolgreich [%]

Einsatzzeitraum

1

Soyuz U

856

112

1

835

97,55

1973 – 2015

2

Delta 7000

136

98

0

134

98,53

1990 – 2015

3

Voskhod

299

86

0

286

95,65

1963 – 1976

4

Vostok

154

82

0

146

94,81

1960 – 1991

5

Ariane 5

89

75

0

85

95,51

1996 – 2016

6

Ariane 4

116

74

0

113

97,41

1988 – 2003

...

....

..

...

....

...

....

...

42

Zenit 3SL

36

20

0

33

91,67

1999 – 2014

43

Scout B

28

20

0

26

92,86

1965 – 1976

44

Atlas SLV-3 Centaur D

32

19

0

30

93,75

1973 – 1983

45

Falcon 9

26

18

0

25

96,15

2010 – 2016

46

Delta 6000

17

17

0

17

100,00

1989 – 1992

47

Soyuz 2a

28

17

0

26

92,86

2004 – 2016


Hier steht nun Ariane 5 vor Ariane 4 auf dem fünften Platz. Da der Blog auch von SpaceX Fans gelesen wird, ihre Rakete ist auf Platz 45. Die Daten beruhen auf dem Launchlog von Jonathan Mc Downell. Von ihm stammen auch die Einstufungen. Die ESA hat z.B. den zweiten Testflug 502 der Ariane 5 als erfolgreich eingestuft. Bei McDowelll steht er als Misserfolg.

Natürlich ist es eine Frage, was eine Subversion ist. Ich habe mich hier stark an den Bezeichnungen orientiert. Das hat oftmals nicht so viel mit Technik zu tun. Man kann so auch Ariane 5G oder Ariane 5E unterscheiden. Das Space Shuttle taucht in der Liste weit unten auf, weil dann jedes Shuttle eine eigene Subversion ist. Wenn man das Kriterium weiter fasst und nur die Trägerrakete nimmt, ohne Subversion dann profitieren vor allem die russischen Träger, wie die zweite Tabelle zeigt:



Nr.

Trägerfamilie

Starts

erfolgreiche Starts in Folge

Fehlstarts in Folge

Erfolge

Erfolgreich [%]

Einsatzzeitraum

1

R-7

1807

147

13

1718

95,07

1957 – 2016

2

Space Shuttle

135

110

0

134

99,26

1981 – 2011

3

Chang Zheng

239

75

2

227

94,98

1970 – 2016

4

Ariane

230

75

0

220

95,22

1979 – 2016

5

Thor-Delta

584

73

9

531

90,92

1958 – 2015

6

Atlas

325

70

4

293

90,15

1958 – 2004

7

Kosmos

625

64

5

580

92,80

1961 – 2010

8

Atlas III/V

69

53

0

68

98,55

2000 – 2016

9

Proton

411

43

11

367

89,29

1965 – 2016

10

Titan

220

41

4

205

93,18

1964 – 2005

11

Tsiklon

258

41

0

247

95,74

1965 – 2009

12

Scout

118

34

2

106

89,83

1960 – 1994

13

H-N

66

29

0

63

95,45

1975 – 2016

14

Delta IV

32

28

0

31

96,88

2002 – 2016

15

Saturn

28

28

0

28

100,00

1964 – 1975

16

Pegasus

42

28

0

38

90,48

1990 – 2013

17

Zenit

83

23

3

73

87,95

1985 – 2015

18

SLV

53

21

1

45

84,91

1979 – 2016

19

Falcon

31

20

2

27

87,10

2006 – 2016

20

Dnepr

22

15

0

21

95,45

1999 – 2015

21

Mu

36

15

3

28

77,78

1966 – 2013

Nun ist Ariane 4 schon Dritter. Beim Shuttle kann man streiten, wie man rechnet. Bei einer klassischen Rakete ist die Mission beendet, wenn die Nutzlast im Orbit ist. So rechnet auch McDowell und dann sind 110 Flüge seitdem einzigen Fehlstart (STS-51L) vergangen. Nimmt man dagegen die Bezeichnung "Space Transporting System" wörtlich, so hat ein Teil des Systems, nämlich die Fähre Columbia versagt und es sind nur 82 Starts erfolgreich in Serie.

Ariane 5 wird ab 2020 durch Ariane 6 ersetzt werden. Das sind noch 4 Jahre, in denen man bei 6 Starts pro Jahr 24 weitere Starts abwickeln kann. Das „Ausphasen“ wird sich auch über etwa 3-5 Jahre hinziehen, das sind sicher noch weitere 10 Starts. Sollte kein weiterer Fehlstart hinzukommen, so könnte sie auf Platz 2 bei allen Trägern hochrutschen und bei den Submodellen mit etwas Glück auch die Sojus U schlagen.

Ob diese hohen Zahlen jemals wieder erreicht werden? Ich glaube nicht. Russlands hohe Zahl an Sojus-Starts stammt aus den Siebziger und Achtziger Jahren, als man im Kalten Krieg viele kurzlebige Aufklärungssatelliten startet. Heute startet Russland weniger Satelliten. Im Westen sind Modelle kurzlebiger und Satelliten langlebiger. Das war schon immer so. Ariane 4 und 5 sollten auch beide kürzer eingesetzt werden. Ariane 4 bekam eine Verlängerung um die Starts aufzunehmen, nachdem der Jungfernflug der Ariane 5 scheiterte. Normalerweise wäre schon 1998 die letzte Ariane 4 gestartet und Ariane 5 wollte Frankreich schon 5 Jahre vor dem Beschluss ausmustern, bekam aber in der ESA keine Mehrheit dafür.

Ich glaube nicht, dass die Falcon 9 jemals 75 erfolgreiche Starts in Folge erreichen wird. Vorher wird sie wahrscheinlich durch etwas anderes ersetzt. Schon bei nicht mal 30 Trägern gibt es ja vier Modelle mit zumindest drei deutlich unterschiedlichen Massen und Startschüben. Woanders wären das schon einzelne Subversionen, und weitere Modelle sind ja geplant von der Falcon Heavy bis zur Marsrakete. Teile dieser werden auch bei der Falcon 9 eingesetzt werden, die dann wahrscheinlich auch eine neue Bezeichnung bekommt. Nach zwei Totalverlusten könnte auch die derzeitige Falcon 9 umbenannt werden z. B. in „Falcon 9 Reuse“ um sie von den Modellen abzugrenzen die die Bilanz verhageln.

Ich komme zu meinem zweiten Thema. Gestern gab es auf WDR eine Art Chartshow der früh verstorbenen Rock- und Popgrößen. Dabei fiel mir auf das besonders viele mit 27 starben: Jimmi Hendix, Janis Joplin, Amy Winehouse, Kurt Cobaine. Alle durch Drogen oder Selbstmord. Das muss also ein schwieriges Alter sein. Doch, wenn ich mich erinnere, dann ging es mir mit 27 gut. Ich habe mit 27 mein Hauptstudium beendet. Davor hatte ich eher einen Durchhänger und danach lief es beruflich auch nicht so gut, aber mit 27 ging es mir Prima. Wie war es bei euch? War da 27 ein kritisches Jahr?

21.11.2016: Trump und das Mondprogramm

Robert Bigelow, der Gründer der gleichnamigen Firma hat Trump aufgefordert, das NASA-Budget auf 1% zu erhöhen und ein Mondprogramm zu initiieren. Das wäre mehr als eine Verdopplung von derzeit 19 auf 40 Milliarden Dollar pro Jahr. Es gäbe einen „Business case“ für den Mond, anders als für den Mars. Nun ja ich glaube es gibt bei beiden keinen Business Case. Auch Bigelows Urteil über Business Cases muss man an dem seiner eigenen Firma sehen: er sieht ja einen Business Case in privaten Raumstationen. Nur seine eigene wartet seit Jahren auf den Start. In SpaceX Launchmanifest steht er seit Jahren und seine Belegschaft hat er schon drastisch reduzieren müssen.

Meine Erfahrungen mit den letzten drei Präsidenten, die Republikaner waren, sind daher auch eher die, dass die NASA weniger Geld bekommen wird. Aber nehmen wir mal an, Trump würde tatsächlich das Budget auf 1% des Gesamthaushaltes erhöhen. Das ist das Niveau von 1976, seitdem lag es immer unter 1%. Das Geld soll in ein Mondprogramm investiert werden.

Wie viel bleibt für ein Mondprogramm?

Für das Jahr 2016 hat die NASA 17.600 Millionen Dollar beantragt. Davon sind 8.510 Millionen Dollar, also fast die Hälfte für die bemannte Raumfahrt. Der Anteil ist relativ hoch, vor allem weil von den Mitteln mehr als ein Viertel nicht in konkrete Missionen, sondern allgemeine Forschung und die Fixkosten der Zentren geht. Das Science Budget ist mit 5.289 Millionen Dollar deutlich geringer. Zu guten Zeiten war es mal fast gleich groß.

Mit 22.400 Millionen Dollar mehr würde das Budget für bemannte Raumfahrt um 263% steigern. Die Augustine Kommission befand, dass Bushs Mondprogramm mit 99 Milliarden unterfinanziert war und 146 Milliarden erfordern würde. Mit 22,4 Milliarden pro Jahr wäre es aber in 7 Jahren durchführbar. Das ist ein wichtiger Punkt. Ich halte Projekte die über 10 Jahre laufen für ineffizient. In der Zeit veralten Systeme, aber vor allem auch wechseln viele Mitarbeiter aus den Projekten und neue müssen eingearbeitet werden. Da alle Projekte einen konstanten Mitarbeiterstamm haben, kosten sie automatisch mehr, je länger sie dauern. Deutlich wird das, wenn man etwas verschieben muss. Das kommt vor bei einer Raumsonde, die ihr Startfenster versäumt. Bei Curiosity bezifferte man z.B. nur die Kosten, wenn die Raumsonde erneut, ihr Startfenster versäumt auf weitere 570 Millionen Dollar, das sind etwa 20% der Gesamtkosten. Nicht zuletzt hat man Apollo in 8 Jahren geschafft, dabei musste man damals wirklich vieles erfinden, was es vorher nicht gab. Dagegen könnte heute ein Mondprogramm auf weitestgehend erprobte Technik basieren. Ich glaube sogar das ein Mondprogramm eher mit den Planungen von 99 Milliarden umsetzbar ist, vielleicht sogar noch billiger, den die SLS ist schon finanziert, Orion auch. Was man noch braucht, ist ein Mondlander und eine Mondbasis.

Ein sinnvolles Programm

Der Mond ist nicht der Mars. Es gibt einige Unterschiede, die wichtig sind:

Man kann den Mond zwar als Vorbereitung für eine Marsmission nutzen. Wenn man ihn aber nur erforschen will, dann unterscheiden sich die Missionen deutlich. So wird man nicht mit einer Kapsel landen, denn es gibt keine Atmosphäre zur Abbremsung. Man muss daher mehr Geschwindigkeit vernichten und Lander werden eher leichtgewichtig als aerodynamisch sein.

Die lange Mondnacht ist ein Problem. Es ist 14 Tage lang dunkel, dabei sinken die Temperaturen stark ab. Die Energie über so lange Zeit kann man nicht mit Batterien speichern, man bräuchte dazu eine viel zu große Masse. Zudem sind die Arbeitsmöglichkeiten im Dunkeln doch stark beschränkt. Weit weg von der Basis wird man sich in der Mondnacht nicht wagen. Da man schnell wieder zur Erde zurückkommt, gibt es zwei Möglichkeiten: Entweder man installiert für eine Basis viel Infrastruktur, die man braucht, um die Nacht zu überstehen wie einen Reaktor oder eine Elektrolyseanlage und Gastanks oder man setzt von vorneherein jede Mission nur auf 14 Tage an. Ich tendiere zu Letztem. Mit einem Auto, das 10 km/h schafft, kann man in 4 Stunden 40 km weit fahren, das dehnt das Untersuchungsgebiet auf einen Kreis von 80 km um den Landeort aus. Das eröffnet einem doch etliche Ziele.

Jede Basis wird dann eher klein sein. Sinnvollerweise wird man eine Station vor der Besatzung landen. Sie besteht aus der Abstiegsstufe des Mondlanders und einer kleinen Behausung. Bei 30 t in die Mondtransferbahn bleiben noch etwa 11 t für die Nutzlast. Nimmt man das Fläechengewicht des MPLM als Basis für eine Berechnung der Größe des Habitats, und etwa genauso viel, wie das Modul wiegt für die Einrichtung, so reicht das für einen Quader von 4,5 m Höhe (zwei Stockwerke zu je 2,25 m Höhe) und 5,70 m Seitenlänge mit einer Fläche von knapp 65 m² – das sollte für 4 Astronauten und zwei Wochen reichen.

Die Besatzung käme dann mit einem zweiten Lander mit Rückkehrstufe. Ein dritter Lander würde dann Vorräte und sperrige Ausrüstung transportieren. Alternativ baut man zwei kleinere Behausungen und lädt Vorräte und kleine Gegenstände in die Habitate und bringt größere Ausrüstung wie das Mondauto an der Seite an.

Eine Mission würde so drei SLS-Starts, drei Abstiegsstufen und 1-2 Labors erfordern. Das gibt dann auch einen Einspareffekt durch Serienbauweise. Mit zwei Missionen pro Jahr kommt man so auf 6 SLS Starts. Reichen die Vorräte für mehr als 14 Tage so könnte man eine Station auch zweimal besuchen. Dann braucht man für den zweiten Start nur eine SLS. Landeplätze gibt es genug. Bei Apollo ging man auf Sicherheit und landete nur in den Maria und nahe des Äquators auf der Mondvorderseite. Die Hochländer sind kaum erforscht. Die Mondrückseite komplett unerforscht. Für die Kommunikation auf der Mondrückseite müsste man im L4 oder L5 Librationspunkt einen Kommunikationssatelliten platzieren, da die Mondrückseite permanent von der Erde abgewandt ist.

Verglichen mit einem Marsprogramm wäre der Investitionsaufwand gering:

Unter der Prämisse finde ich sogar die 99 Milliarden Dollar für Bushs Mondprogramm für zu hoch angesetzt.

Für ein Marsprogramm wäre das Mondprogramm in der forma als Vorbereitung nur bedingt geeignet. Man hat dann die nötige Trägerrakete und die Kapsel, die man braucht, um vom Mars zu starten bzw. von der Erde zu starten und landen. Man könnte, wenn man ein Marsprogramm solarelektrisch durchführen will, die Module dafür entwickeln. Sie werden eine wesentlich höhere elektrische Leistung brauchen als heutige Ionenantriebe und auch die Ionenantriebe mit diesem Schub wären technisches Neuland. Dann könnte man zumindest die beiden unbemannten Teile aus einer Erdumlaufbahn in eine Mondbahn spiralen. Das würde die Nutzlast um 70 bis 100% erhöhen, da typisch nur 30% der Masse aus der Erdbahn beim Mond ankommen und man noch etwas Geschwindigkeit spart da man aus einer Umlaufbahn und nicht direkt landet.

Aber wie schon gesagt ich glaube nicht dran. Ich würde von Trump eher erwarten, dass er das Budget radikal beschneidet oder noch mehr kommerzialisiert.

23.11.2016: Die Energiewende

Bis 2050 will die Bundesregierung die BRD vollständig auf regenerative Energien umgestellt haben. Ich empfand das Vorhaben als ambitioniert. Und es liefert mit die Vorlage zu diesem Blog: ist das schaffen und was wird es kosten?

Der Status

Wenn wir heute von erneuerbaren Energien reden, dann denkt fast jeder erst mal an den Strom. Das ist auch augenfällig. In Norddeutschland sind die Windkrafträder allenthalben zu sehen und hier im Süden sind es die Photovoltaikanlagen auf den Hausdächern und im Allgäu habe ich ganze Wiesen gesehen, die zur Solarfarm umfunktioniert wurden. Dazu kommt die Diskussion über die Elektroautos bzw. warum die nicht in die Gänge kommen.

Was man aber vergisst: der Strom macht beim Gesamtenergieverbrauch in Deutschland nur einen kleinen Teil aus. Jeder kann sich das selbst ausrechnen. 10 kWh entspricht in etwa dem Energiegehalt von 1 l Benzin oder Heizöl. Nun muss jeder nur mal seinen Stromverbrauch mit dem Heizölverbrauch und Benzinverbrauch des Wagens vergleichen, dann wird klar, das der Strom auf den bisher der Großteil der Anstrengungen beim Umstieg entfällt, nur ein kleiner Teil des Energievierbauchs darstellt. Nach einem offiziellen Excel-sheet des BMWI sind es 1873 von 8877 PJ Gesamtenergieverbrauch, also weniger als ein Fünftel. Bei den anderen vier Fünftel wird aber kaum erneuerbare Energien eingesetzt. Das bedeutet: der Großteil der Energiewende liegt noch vor und während wir bei Strom zumindest eine Alternative haben sieht es bei den anderen Energieträgern schlecht aus.

Was haben wir an Ressourcen?

Vor allem steht eine Bestandsaufnahme welche erneuerbaren Energien wir zur Verfügung haben. Es gibt sehr viele Quellen. Doch wenn man an die Energiemenge denkt, die wir verbrauchen, reduziert es sich auf drei große Quellen: Solarenergie, Windenergie und Biomasse. Mit letzterem fange ich mal an. Biomasse klingt zuerst einmal toll. Man braucht keine teuren Anlagen, sondern kann einfach was Aussähen und im Herbst ernten. Vor allem entfällt von unserem Energieverbrauch fast die Hälfte auf Wärmeenergie für die Heizung, in der Industrie vor allem aber auf Prozesswärme. Die aus Strom zu gewinnen geht, aber während wir den Strom nur mit geringem Wirkungsgrad aus anderen Energien gewinnen können, kann man Biomasse zu fast 100 % in Wärme umsetzen.

Das Hauptproblem von Biomasse ist die Effizienz von Pflanzen. Riesen-Chinaschilf ist in unseren Breiten die effizienteste Pflanze. Sie bildet 15-25 t Biomasse pro Hektar mit einem Heizwert von 18-18,4 MJ/kg. Das klingt nach viel sind pro Quadratmeter aber gerade einmal 45 MJ. Ein Quadratmeter polykristalline Solarzellen liefert etwa 120 kWh pro Jahr, das entspricht 432 MJ. Pro MJ Sonnenstrahlung bildet Chinaschilf 2,5 g Trockenmasse das entspricht einer Effizienz von 4,5% bezogen auf die einfallende Strahlung. Solarzellen liegen deutlich drüber und sie liefern auch Strom wenn Chinaschilf nicht mehr wächst weil es zu kalt ist. Würde man nur den Wärmeenergiebedarf Deutschlands durch Chinaschilf decken, man bräuchte eine Fläche von 117.000 km² bei 20 t ertrag pro Jahr, das wäre ein Großteil der landwirtschaftlich genutzten Fläche Deutschlands oder etwa ein Drittel der Gesamtfläche.So kann Biomasse nur ein kleiner Bestandteil des Mixes sein.

Windenergie

Windkraftanlagen sind schwer abzuschätzen. An Land sind die guten Standorte weitestgehend ausgereizt und es gibt auch immer mehr Widerstand gegen immer mehr Windkraftanlagen. Auf See ist das Potenzial größer. Nach Untersuchungen großer Parks aber auch begrenzt. Bei einer 100.000 km² großen Region kamen Forscher auf eine Leistung von 1,1 W/m². Würde man ganz Deutschland so zupflastern dann wären das 371,7 GW Peakleistung. In Deutschland ist die tatsächliche Durchschnittsleistung aber nur 16% der installierten Leistung. Dann sind das 61 GW im Mittel. Über das Jahr hochgerechnet ergibt das 1925 PJ oder 21,7 % des Gesamtenergieverbrauchs. Ich vermute aber es wird weniger sein, denn wie schon geschrieben an Land sind die besten Plätze bereits weg und so viel Platz gibt es auf der See auch nicht, zumindest nicht innerhalb der zu der BRD gehörenden Küstenzone. Was den Wind attraktiv im Energiemix macht ist das er zumindest auf See dauernd weht und auch sonst unabhängiger von der Sonne als Biomasse und Solarzellen ist. Wind gibt es auch bei Nacht und im Winter. Daher wird er wohl, wenn man den Umstieg schafft die Grundlast abdecken.

Sonnenenergie?

Das Größte Potenzial hat sie Sonnenenergie. Im Sommer fällt über 1 KW Leistung auf einen Quadratmeter. Handelsübliche polykristalline Solarzellen gewinnen 120 kWh übers Jahr gerechnet, aber mit großen Schwankungen. Immerhin: um den gesamten heutigen Primärenergieverbrauch durch Solarzellen zu decken bräuchte man eine Fläche von rund 21.000 km². Das klingt nach viel, doch die Fläche haben wir ohne Probleme zur Verfügung. Nach Wikipedia ist unser Straßennetz 644.000 km lang. Ein Streifen muss mindestens 2,75 m breit sein, es können bis zu 3,75 m sein. Dazu kommen noch Randstreifen und bei Autobahnen auch Mittelstreifen. Nimmt man zwei Spuren an, also eine einfache Straße und eine Breite von 7 m, so sind das insgesamt 4.600 km². Dazu kommen die ganzen Häuser. Würde man einfach nur die sowieso schon bebaute Fläche (8 % nach EU-Statistik) mit Solarzellen belegen, so hätte man mit 28.500 km² mehr Fläche als man bräuchte und es gibt ja noch den Strom aus Wind.

Problem Variabilität

Sowohl Wind wie Sonnenenergie sind leider zeitlich variabel. Bei der Sonnenenergie kommt noch hinzu das sie im Winter am geringsten ist, wir dann aber wegen der Heizung den größten Energieverbrauch haben. Leider können wir Deutschland nicht an den Äquator verschieben, das würde das Problem lösen und wäre auch sonst sehr angenehm. Daher wird man die Energie speichern müssen. Wenn man tatsächlich alle Autos auf Elektroautos umstellt dann hat man zumindest ein Problem gelöst: das des Kurzzeitspeichers. Ein Elektroauto hat eine Batterie mit einer Kapazität von 50-100 kWh, nehmen wir mal 75 kWh an. Es gibt 44 Millionen PKW in Deutschland, wenn man es hinbekommt das zwei Drittel (alle werden es nie sein) Elektroautos sind, dann entsprechen die 30 Millionen PKW zusammengenommen einer Batteriekapazität von 8.1 PJ oder 1 Promille des Gesamtenergiebedarfs. Das klingt nach wenig. Doch es geht auch nicht darum die gesamte Energie aufzunehmen, sondern Spitzen abzupuffern. Da Autos meistens nur rumstehen könnte man sie als Kurzzeitspeicher nutzen. Zudem sind sie ein Speicher der täglich aufgeladen wird und der dann teilweise wieder entleert wird indem gefahren wird. Sie sind so ohne Problem ein Speicher für die täglichen Überschüsse.

Trotzdem wird man im Sommer dreimal so viel Solarstrom erzeugen wie im Winter und genau dann wird man Energie zum Heizen brauchen. Das bedeutet man muss noch andere Speichermöglichkeiten haben. Denkbar wäre es den Überschuss als Wärme zu speichern. Doch ich sehe dem kritisch gegenüber. Nach dem zweiten Hauptsatz der Thermodynamik ist der maximale Wirkungsgrad beschränkt auf 1-Tkalt/Twarm. Da Tkalt immer mindestens Umgebungstemperatur ist, wird man bei 298 K (25° C) bei einer Erhitzung auf 596 K (323 °C) also einer recht hohen Temperatur nur einen Wirkungsgrad von 50 % erreichen. Für 80 % müssten es 1217 °C sein, eine Temperatur bei der viele Metalle schmelzen. Das Problem: Je höher die Temperatur, um so schneller geben Substanzen Energie ab. Nach dem Stefan Bolzmann Gesetz mit der vierten Potenz der Temperatur. Selbst wenn man dann sehr große speicher baut um die Oberfläche zu verkleinern und diese gut isoliert taugt das Konzept nicht für die Speicherung von Energie über Monate. Allenfalls für Kurzzeitspeicher. Zumindest bei der Heizung könnte man aber die Sonnenenergie direkt nutzen als Solarkollektoren die Warmwasser herstellen. Das wäre effizienter als erst Strom zu erzeugen und dann diesen zur Heizung zu nutzen. Trotzdem wird man im Winter nicht ohne gespeicherte Energie auskommen, dafür ist einfach die Differenz zwischen Energiegewinn und bedarf zu hoch.

Das sinnvollste ist es, die Energie chemisch zu speichern. Schlussendlich nutzen wir heute schon vor allem chemisch gespeicherte Energie. Vorgeschlagen wird die Elektrolyse von Wasser. Den Wasserstoff kann man emissionsarm verbrennen. Der Wirkungsgrad ist mit 60-70 % relativ hoch. Das Hauptproblem ist das gasförmiger Wasserstoff ein großes Volumen braucht, achtmal mehr als Erdgas. Zudem diffundiert er leicht durch Metalle. In der Menge, die man braucht um wirklich jahreszeitliche Schwankungen abzufedern, braucht man extrem große Mengen. Erdgas wird bei 200 bis 250 bar gespeichert. Würde man weil man im Winter am meisten Energie braucht 25 % des Gesamtenergiebedarfs speichern, so bräuchte man bei Wasserstoff und 250 Bar Druck rund 5,8x1013 m³ Volumen. Das sind rund 2100 kugelförmige Hochdruckbehälter von 100 m Durchmesser.

Ich halte zumindest am Anfang die Spaltung von Erdgas für sinnvoller. Aus Erdgas kann man Wasserstoff und Ethylen bilden. Ethylen ist als ungesättigter Kohlenwasserstoff der ideale Ausgangsstoff für die Petrochemie, die nach wie vor für Kunststoffe braucht. Über Polymerisation kann man aus ihm auch Benzin für die noch verliebenden Fahrzeuge erzeugen. Von Nachteil ist, das das Erdgas endlich ist. Man könnte es wieder regenerieren, indem man mit dem Wasserstoff Kohlendioxid zu Methan reduziert. Doch der Wirkungsgrad sinkt dann stark ab. Ganz verzichten wird man auf diesen Prozess nicht, erzeugt er doch Kohlenwasserstoffe die man nach wie vor braucht. Zum einen für die verbliebenen Fahrzeuge wie eben auch für die gesamte auf Kohlenwasserstoffen basierende Industrie, von Kunststoffen über Farben, bis hin zu Arzneimitteln.

Erzeugung im Ausland

Immer wieder kommt die Idee das ganze doch zu verlagern. Schon in Europa gibt es in Spanien und Italien weitaus höhere Erträge und wenn man dann noch weiter in Richtung Süden geht hat man in der Sahara riesige Flächen mit deutlich höherer Sonneneinstrahlung und noch wichtiger – weniger starken jahreszeitlichen Schwankungen. Immer wieder gibt es Vorschläge Strom in der Sahara zu erzeugen. Ich sehe hier durchaus Chancen. Aber nicht so sehr darin den Strom aus dieser Entfernung zu uns zu befördern. Vielmehr könnte man dort einen Großteil der Speicherenergie produzieren die wir im Winter benötigen, also gleich Wasser in Wasserstoff spalten. Dort würde auch Bioenergie mehr Sinn machen. In der Sahara kann man nichts anbauen, aber an den Küsten könnte man geschlossene Systeme erreichten in denen man Algen züchtet. Die Algen werden geerntet und durch die Sonnenenergie getrocknet und dann zu uns verschifft. Man wird eine Wirtschaftlichkeitsrechnung aufstellen müssen ob es sich lohnt. Denn auf der anderen Seite kommen Kosten für den Transport hinzu, der Aufbau wird teurer und die Länder dort wollen auch was verdienen . Zudem gibt es neue Risiken. Sand den es in der Sahara in rauen Mengen gibt verkratzt z.B. die Gläser über Solarzellen wodurch der Wirkungsgrad absinkt. Dazu braucht man keinen Sandsturm, dazu reicht schon ein kleiner Wind.

Was kostet es?

Billig wird es nicht. Schon die Investition in die Solaranlagen wird teuer. Eine kleine Recherche im Internet brachte für 1,6 m² einen Preis von 720 Euro. Bei 75 % Deckung des gesamten Primärenergiebedarfs sind das 9,6 Milliarden dieser Module. Immerhin werden sie dann billiger werden, denn die Produktionszahlen werden dann rapide ansteigen. Ein Preis von 300 Euro bei dieser Stückzahl halte ich aufgrund des Gesetzes der Erfahrungskurve für realistisch. Doch das wäre dann immerhin noch eine Investition von fast 3000 Milliarden, wozu dann noch Kosten für die Installation und die speicher kämen. Die kosten kann man nur schätzen, doch ich würde den Gesamtkostenbedarf auf 5000 Milliarden Euro beziffern.

Doch eine Gegenrechnung: Bei 15 ct pro kWh (Strom ist relativ teuer, Benzin ebenso, Heizöl und Erdgas umgerechnet auf die Energie recht billig). Gibt man in der BRD rund 370 Milliarden Euro pro Jahr für nicht regenerative Energien (rund 4500 Euro pro Person, das enthält aber auch Industrie, Dienstleistungen und Verkehr, die den größten Anteil haben) aus. Wir haben 34 Jahre Zeit um auf 0 % zu kommen. Man müsste also rund 170 Milliarden pro Jahr oder 50 % dessen was wir heute schon für Energie ausgeben, zusätzlich aufwenden. Das erscheint mir machbar. Umsonst wird die Energie aber auch dann nicht sein. Solarmodule haben eine Lebensdauer von etwa 25 Jahren, lassen aber auch in der Leistung nach. Der Betrieb von Elektrolyseanlagen kostet Geld. Wahrscheinlich wird Energie nicht billiger sein als heute, eher noch teurer.

Wer macht es?

Bisher läuft die Energiewende so, dass zum einen viele Privatpersonen ihre Solarmodule auf die Häuser packen und zum anderen große Firmen Windräder oder Windparks bauen. In der Größenordnung und vor allem wenn man meinem Vorschlag folgt, die sowieso überbauten Flächen zu nutzen wird das eine staatliche Aufgabe sein. Die staatliche Lenkung läuft bei uns aber komplett schief. Beim Strom müssen Verbraucher Zulagen zahlen, die dann den Betreibern von erneuerbaren Energien aus Subvention ausgezahlt werden die Industrie ist aber davon befreit. Warum eigentlich? Das sorgt doch nur dafür, das man dort keine Anstrengungen zum Energiesparen unternimmt (das Thema habe ich nicht vergessen, es ist nur nicht Bestandteil des Blogs, er wäre sonst einfach zu lang. Aber natürlich ist die Senkung des Energieverbrauchs das erste, was man tun sollte bevor man umstellt). Meiner Ansicht nach sollte es anders laufen. Man sollte nichts subventionieren, aber auch keine Steuern erheben. Sprich: beim Strom eben keine Strom- und Mehrwertsteuer für Ökostrom. Für Biosprit keine Mineralölsteuer und Mehrwertsteuer. Da die Steuern bei beiden Produkten heute schon den Großteil des Preises ausmachen wäre regenerative Energie mit einem Schlag schon heute konkurrenzfähig. Eine Blüte haben z. B. seit einigen Jahren kleine Photovoltaikanlagen welche die Grundlast abdecken. Das sind keine großen Module, sondern kleine die man z.B. auf dem Balkon aufstellt. Experten warnen vor Kabelbrandgefahr wegen Überlastung des Hausnetzes doch das hält viele nicht davon ab, die zu kaufen, denn die Hersteller versprachen das schon nach 7 Jahren eine solche Anlage sich durch den eingesparten Strom rentiert hat. Auch wenn das sicher eine Idealrechnung ist, zeigt es doch, dass wegen der hohen Steuern die heute auf allen Energiearten liegen eigentlich Solarstrom schon konkurrenzfähig wäre, wenn er von der Steuerlast ausgenommen wäre.

Der Bund müsste auf Steuern verzichten, doch ich glaube das dann der finanzielle Anreiz so groß wäre, das wir wirklich die Energiewende hinbekommen würden. Es ginge, doch sicher nicht mit dieser Bundesregierung die von der Industrie gekauft ist. Das zeigt sich ja auch dem Plan der Klimawende der von den Ministerien soweit zurechtgestutzt wurde das fast nichts mehr übrig bleib.


 

 


Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99