Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Weblog Teil 563: 25.7.2019 - 1.8.2019

25.7.2019: Ich bin klimaneutral

Fünf Monate nachdem ich den Entschluss gefasst habe, bin ich klimaneutral geworden, denn Montag letzter Woche ging auch meine zweite Photovoltaikanlage auf meinem Ferienhaus ans Netz. Bei deren Installation gab es einige Überraschungen, die sie verteuerten, unter anderem nahm der Netzbetreiber den Sicherungskasten nicht ab. Bei dem zuständigen Mitarbeiter halfen auch Argumente wie das das Haus Nachtspeicheröfen hat und der Kasten daher für 25 kW Bezug aus dem Netz ausgelegt ist, da werden auch maximal 7 kW ins Netz gehen. Der Mitarbeiter von AllgäuNetz warf nur mit VDE-Normen und Vorschriften um sich. Ergebnis: 2500 Euro Mehrkosten. Dabei ist der „Service“ von Algäunetz für die gleiche Leistung nämlich eine PV-Anlage ans Netz zu nehmen und einen Zähler zu installieren, zudem dreimal so teuer wie von EnBW bzw. deren Netzsparte. Ich hätte nie gedacht das mir mein Monopol-Versorger mal so sympathisch werden sollte.

Neben den beiden PV-Anlagen die 11.300 und 18.600 Euro kosteten habe ich dann noch 11.000 in Bürgerenergien investiert und meinen Stromtarif auf Ökostrom umgestellt und ich will versuchen im Winter noch etwas mehr Heizenergie einsparen, die bei mir 50 % meines CO2-Fussabdrucks ausmacht. Mir fehlen, wenn man es genau nimmt, noch 0,2 t CO2, aber 0,75 t des Fußabdrucks sind auch öffentliche Investitionen und für die wäre ich nicht verantwortlich. Dabei will ich es aber nicht belassen. Nachdem ich gehört habe, dass man alleine durch gezieltes Aufforsten ungenutzter Flächen ein Viertel des weltweiten CO2-Ertrags wieder neutralisieren kann, wird das mein nächstes Projekt. Da es da um Spenden geht und wenn es um Spenden geht, es auch viele auch unseriöse Anbieter gibt, habe ich mich schlau gemacht und Stiftung Warentest hat 2018 solche CO2-Kompensationprojekte untersucht und drei haben gut bis sehr gut abgeschnitten, ich denke ich werde bei Atmosfair spenden, auch wenn die pro Tonne Kohlendioxid am „teuersten“ sind – trotzdem würde mich bei 23 Euro/t CO2 eine Komplettkompensation auch nur 200 Euro pro Jahr kosten.

Ich geb zu ich bin stolz darauf in 5 Monaten das geschafft zu haben, wofür die Bundesregierung sich 32 Jahre Zeit nimmt und vor allem weil die in den letzten 5 Monaten zwar ein „Klimakabinett“ aufgestellt hat, aber das nichts in der Zeit verabschiedet hat. Klar ist allerdings auch das mich, das über 40.000 Euro gekostet hat und diesen Betrag nicht jeder hat bzw. nicht ein solches Naturell, das man dann eine Entscheidung auch durchzieht, obwohl sie teuer ist.

Ich will in dem Blog aber noch eine Erkenntnis unterbringen, die ich schon nach der Installation der ersten Anlage hatte und die ich trotz Vorinformation nirgends gefunden habe. Es geht um die Auswirkungen der 70 % Kappung. Für alle die keine PV-Anlage haben oder die älter als 7 Jahre ist: Seit 2012 müssen PV-Anlagen reguliert werden. Das bedeutet, das entweder der Netzbetreiber auf die Anlage Zugriff hat und entscheiden kann, wie viel er abnimmt oder, das ist die meist gemachte Lösung – man reduziert die Anlage auf 70 % der Peakleistung. Das bedeutet nun nicht, dass sie nur 70 % liefert, sondern wenn die aktuelle Leistung 70 % der Maximalleistung erreicht, dann gibt, der Wechselrichter nur noch 70 % ab. Bei meiner Anlage zu Hause mit nominell 6,9 kWp sind dies 4,83 kW. Es gibt Erfahrungswerte, wie viel das übers Jahr gemittelt an Minderertrag bringt. Gelesen habe ich von 8-10 % bei Ost-West Dächern und 13 % bei Süddächern.

Bei meiner eigenen Anlage, die seit dem 18.4. online ist, habe ich schon am ersten Tag Folgendes beobachtet: dieses Maximum von 4,83 kW wurde um 9:30 erreicht und blieb bis 13:30. Das Dach hat eine Südost-Ausrichtung, d.h. wenn Osten 0 Grad ist und Süden 90 Grad dann hat die Fläche einen Azimut von 30 Grad zu Osten. Man kann nun mit Tools wie dem PVGIS der EU berechnen was dieses Dach bei gegebenem Dachwinkel und Ausrichtung pro Jahr erbringt und dann ist schnell klar, dass es sich nicht lohnt, auf der Nordwestseite Solarpaneele anzubringen, denn die liefern je nach Datenbank 20 bis 25 % weniger als die Ostseite.

Doch diese Tools kennen unsere deutsche Regelung und nicht und schon wenige Tage nach Installation dämmert mir, dass wenn ich einige Paneele auf der anderen Dachseite gehabt hätte, die vormittags kaum Sonne bekommen hätten. Da die 70%-Regelung aber sich auf die Gesamtleistung bezieht, tragen sie zur ihr bei und die Kappung kommt später. Umgekehrt, ist die Sonne dann nachmittags auf der Westseite, bekommen meine Paneele kaum noch Sonne, die Leistung fällt ab, jetzt könnten die Paneele der Westseite Strom liefern, aber ich hatte ja nur eine Dachseite belegt. Ich wollte dann noch um 3 kW auf der anderen Dachseite erweitern, doch weil es dann zwei Anlagen sind, jeweils mit individueller Kappung habe ich es sein lassen, denn so rechnet sich das nicht.

Bei meiner zweiten Anlage auf dem Ferienhaus war ich schlauer. Das Dach hat dieselbe Ausrichtung, der Winkel des Dachs ist etwas flacher und damit günstiger. Hier sind 2,48 kWp (¼) auf der Westseite und entsprechend 7,44 kWp (¾) auf der Ostseite installiert. Ich habe inzwischen auch ein Tool, geschrieben mit dem ich nicht auf die Ausgaben der Weboberflächen angewiesen bin und beide CSV-Importe (natürlich auch wieder jeweils in einem anderen Format) gleichzeitig darstellen kann. In den letzten 10 Tagen fiel mir schon auf das sich die Überlegung gelohnt habe denn die Anlage auf dem Feriendorf liefert (wenn man die Erträge pro kWp normiert) zwischen 10 und 20 % mehr als die Anlage bei mir. Allerdings sind die beiden Standorte auch 200 km auseinander und die Wolkenbedeckung oft unterschiedlich. Doch am Sonntag gab es an beiden Orten strahlend blauen Himmel und ich habe mal die Datensätze verglichen und hier das Ergebnis:

Man sieht, da die installierte Leistung auf der Ostseite fast gleich groß ist, dass beide Anlagen in den Morgenstunden gleichartig ansteigen. Dann, wenn sie Sonne höher steht, bekommen auch die Westpaneele in Rechenbach Sonne und gehen hoch und dann gibt es bei beiden eine Kappungsphase, erkennbar an der geraden Linie. Schon am frühen Nachmittag sinkt dann meine Anlage ab, während die im Ferienhaus durch die West-Panelle länger Strom liefert.

Das schöne, wenn man schon was programmiert hat, ist das man ja auch die Werte verarbeiten kann und das zeigt das zweite Bild. Hier sind beide Anlagen auf 6,9 kWp skaliert. Man sieht, dass die Anlage am Ferienhaus dann etwas später ansteigt (Effekt des flacheren Dachs), aber sie bleibt auch etwas länger auf dem Hochpunkt und fällt so später ab und in den Abendstunden nicht so stark. Bei diesem wolkenlosen Tag und – ich denke das ist bei gleichen Bedingungen repräsentativ, liefert sie 13 % mehr Strom. Gut das ist nur für den Fall, dass die Kappung greift – wie schon gesagt gab es die bei mir schon Mitte April. Aber ich denke es ist repräsentativ für Sonnentage in den Sonnenmonaten und die liefern eben wirklich am meisten Strom. Wenn es mal an einem Tag bedeckt ist, geht der Ertrag auf ein Viertel bis Fünftel zurück und in den Wintermonaten kann man mit 20 % des Sommerertrags rechnen.

Daher mein Tipp für alle die keine reinen Süddächer haben: planen sie die Anlage so, das auch ein Teil (20-30 %) auf der ungünstigen Westseite installiert wird. Bei reinen Ost-Westdächern sollten es theoretisch sogar 50 % sein. Neben dem höheren Ertrag hat es noch einen zweiten Vorteil: man spart mehr Strom (Eigenverbrauch) ein. Denn abends liefert die Anlage noch Strom währen eine reine Ostanlage nichts mehr liefert. Den verbrauchten (oder eben nicht verbrauchten) Strom bezahlt man aber mit durchschnittlich 28 bis 30 ct/kWh, während man für neue Anlagen derzeit unter 11 ct/kWh für eingespeisten Strom bekommt. Wenn man dann noch ein Haushalt ist, bei dem man bevorzugt abends da ist, lohnt sich das besonders, das ist der Fall, wenn die meisten Familienmitglieder berufstätig sind.

27.7.2019: Die Lösung für ein überflüssiges Problem: Aufnahme des Apollo Abstiegs

Der heutige Blog entstand aus der Überlegung, mal wieder den Lesern eine Geschichte von Münchhausen zu erzählen. Doch da schon bei meinem letzten Eintrag für den ich mir Mühe gegeben haben niemand reingefallen ist (das hat man nun davon, wenn man seine Blogleser zu einer kritischen Einstellung und dem Hinterfragen von Behauptungen erzieht). Ich hatte vor einen NASA-Preis zu erfinden, der analog dem Google X-Price an denjenigen verliehen wird, der endlich die "verlorenen" bzw. schlechten Abstiegsaufnahmen der Apollo 11 Mission liefert.

Zur Erklärung: Es lief bei Apollo 16 eine Filmkamera mit die am Feinster des Lunar Module Pilots, also Buzz Aldrin montiert war. Nur zeigt die einen kleinen Ausschnitt und sie zeigt nicht das, was Neil Armstrong auf dem anderen Fenster sah, weil sie schräg nach außen schaute. Die Idee, die ich hatte: Da der Mond keine Atmosphäre hat und auch unveränderlich ist. Würde eine Sonde, die den exakten Flugpfad von Apollo 11 nachfliegt mit derselben räumlichen Orientierung, sie würde die Szenerie aufnehmen, die Armstrong sah.

Dann dämmerte mir: das ist nicht utopisch. Alle Daten dafür gibt es: die NASA hat alle Daten dafür. Über die Telemetrie bekam sie die Daten des Inertialsystems über die Ausrichtung des LM und die Radardaten über Höhe und Geschwindigkeit. Dieselben Daten über Höhe und Geschwindigkeit, sogar in allen drei Dimensionen und nicht nur eindimensional gewann sie durch die Bahnvermessung. Das wurde ab Apollo 12 genutzt, um den Einfluss von lunaren Mascons zu kompensieren, die bei Apollo 11 dazu führte das, das LM auf ein 6 km entferntes Zielgebiet hinsteuerte.

Würde man eine Raumsonde bei demselben Startpunkt und in etwa derselben Startgeschwindigkeit losschicken, so müsste es nur die Drehungen nachvollziehen und von einem Wegepunkt zum nächsten Wegepunkt einer Tabelle, in der der Ort zu jeder Zeit angegeben ist, fliegen. Das ist also nicht unmöglich, sondern mit der heutigen Technik sogar leicht umsetzbar. Daher hier mein Vorschlag für eine solche Sonde

Gewichtsabschätzung

Ich nehme an das man lagerfähige Treibstoffe einsetzt, wie bei Apollo und druckgeförderte Triebwerke. Kleine Satellitentriebwerke haben einen spezifischen Impuls bis 3150 m/s. Ich habe, da ja auch gedrosselt und das die Energieausbeute absinkt, wird 3000 m/s angesetzt. Der Geschwindigkeitsbedarf ist auch angebbar. Die Apollo Abstiegsstufe hatte ein ΔV Budget von 2200 m/s. Man könnte da man ja dieselbe Trajektorie nachfliegt die Reserven auf die Teile reduzieren, die unabdingbar sind. Apollo 11 landete mit rund 700 Pfund Resttreibstoff, das sind zwar nur 3,8 % der Treibstoffmenge doch, da diese Menge erst von der Erde zum Mond befördert werden muss, hat das Einfluss auf die Masse.

Für das Einschwenken in den Orbit gab es ein ΔV von etwa 1000 m/s. Hier gäbe es Einsparpotenzial. Wenn man sich mehr Zeit lässt, kann man das ΔV auf 800 m/s drücken.

Zuletzt muss man aus einem Erdorbit zum Mond zu gelangen. Wenn die Ausgangsbasis ein GTO-Orbit ist, so beträgt der Geschwindigkeitsaufwand dafür 700 bis 750 m/s.

Das sind in der Summe ein ΔV von 3700 bis 3950 m/s. Bei einem spezifischen Impuls von 3000 m/s. Ist die Endmasse dann 3,43 bis 3,73-mal kleiner als die Startmasse. Ein Voll-/Leermasseverhältnis von 5 (wie bei der Apollo Abstiegsstufe) und eine Nutzlast von 100 kg (für einen Minisatelliten, einen Minirover und einige Kameras) kommt man so auf eine Startmasse von 868 kg (dV=3700 m/s) bis 1.063 kg (dV=3950 kg). Man sieht: die Einsparung von Treibstoff oder ein etwas höherer spezifischer Impuls wirkt sich deutlich auf die Nutzlast aus. Wenn man aus einem niedrigen Erdorbit aus startet, dann wird man wegen des nochmals um 2,5 km/s höheren ΔV wahrscheinlich elektrische Triebwerke einsetzen, mit denen man alle Manöver bis zur Erreichen einer Mondumlaufbahn durchführen kann. Das kommt dann in etwa auf dieselbe Startmasse von rund 1000 bis 1200 kg, allerdings dann in einen niedrigen Erdorbit. Nur mit chemischen Treibstoff würde die Sonde sonst zu schwer.

Triebwerke

Für eine korrekte Simulation müssen die Triebwerke, wie das Abstiegstriebwerk im Schub regulierbar sein. Bei druckgeförderten Antrieben kein Problem, da bei ihnen sowieso der Druck in den Tanks abfällt, wenn sich diese entleeren. Allerdings gibt es da wenig Auswahl. Satellitenantriebe gehen bis 445 N, dann kommen schon schubkräftige und schwere Antriebe für Oberstufen wie das Aestus oder AJ10 mit 25+ kN Schub. Russland hat auch im Zwischenbereich zahlreiche Antriebe entwickelt, so z.B. das RD-861, das die Vega einsetzt mit 2,5 kN Schub. Die sind aber turbopumpengefördert und soweit ich weiß nicht im Schub regelbar.

Der Maximalschub muss so groß sein, das die gleiche Beschleunigung, wie bei Apollo resultiert. Das waren damals 3 m/s zu Beginn der Zündung. Dann wiegt die Kombination in einem Mondorbit noch 523 bis 562 kg. Das wäre dann ein Schub von 1570 bis 1686 N. Mein unkomplizierter Vorschlag: man nimmt vier Satellitentriebwerke mit 400 bis 445 N Maximalschub und regelt die bei geringerem Schub erst leicht herunter und schaltet dann nacheinander je eines ab. Minimal hatte beim Abstieg der Mondlander noch etwa 10 kN Schub, das entspricht dann einem 400 N Triebwerk bei vollem Schub.

Mission

Die Mission ist eigentlich relativ geradlinig. Man würde die Sonde als Sekundärnutzlast in einen GTO starten, ist zwar etwas schwer, doch wenn es Reserven gibt, wäre das durchaus möglich. Ideal wäre sogar ein supersynchroner GTO, da dann das ΔV Budget positiver aussieht,

Die Sonde wurde dann zum Mond fliegen und zuerst in eine 1,25 Grad geneigte 110 km hohe Bahn einschwenken und durch weitere Bahnmanöver den Punkt erreichen wo bei Apollo der PDI stattfand. Der begann mit einer Absenkung des Perilunäums auf der Mondrückseite, gefolgt vom eigentlichen Abstieg idealerweise würde die Sonde nicht nur mit einer Kamera die Sicht Armstrongs aufnehmen, sondern mit mehreren Kameras die ganze Umgebung beim Abstieg, Daraus kann man dann etliche Filme schneiden. Eine Kamera mit 4 K Sensoren, die kein Zoom braucht, wiegt ja auch kaum was. Mit 6-7 Normalwinkelkameras könnte man das problemlos leisten, oder man nimmt 4-5 Weitwinkelkameras. Die Einschränkung der Sicht durch das Fenster kann man später am Computer rechnerisch hinzufügen. Lediglich am Schluss würde es eine Diskrepanz geben, denn die Astronauten hatten natürlich die Sicht aus der Höhe der Aufstiegsstufe des LM, das sind rund 4 m Höhe, das geht mit einer Kamera nicht. Aber der Paralachsenfehler ist bis auf die letzten Sekunden wegen der beim Abstieg großen Höhe relativ klein.

Idealerweise sitzen die Kameras nicht auf der Abstiegsstufe sondern einem Minirover. Die kann man ja auch leicht bauen so wie der Rover von Chandrayaan 2 oder Sojourner. Selbst, wenn man sich eine Rampe einspart und er einfach vom Deck runter rollt passiert bei Fall aus maximal 1 m Höhe auf dem Mond nicht viel. Er könnte dann zuerst die Aufstiegsstufe umrunden und dann den Landeplatz anfahren (ich hoffe mal es gab doch einige kleine Fehler bei der Kompensation der Bewegungen, sonst würde die Landestufe direkt auf dem Mondlander niedergehen) und dort ausgiebig die verbliebene Fähre und die Instrumente ablichten. Der Mond ist so nahe, dass selbst eine Mittelgewinnantenne mit einem Öffnungswinkel von 60 Grad im X-Band rund 800 kbit/s übertragen kann. Die Ausrichtung ist einfach, denn da der Mond gebunden rotiert, ist die Erde immer an derselben Stelle am Himmel. Selbst wenn man nur einen Mondtag überlebt, das wären 11 Erdtage mit je 12 Stunden Funkkontakt kann man in der Zeit 380 GBit übertragen, da für 4K Videos zwischen 15 und 40 Mbit/s Datenrate gemannt werden, entspricht das rund 3 Stunden Videomaterial zu einer 12 m großen Empfangsantenne wie beim LRO. Beiner besseren Richtantenne kann das einiges mehr werden und Fotos, die man mit den Sensoren auch machen kann, fallen kaum in die Datenbilanz rein. (das wären theoretisch über 47.000 Bilder in JPEG-Kompression mit höchster Qualität.

Fazit:

Es wäre möglich und wenn schon der Google X-Price viele animiert hat sich an dem Wettbewerb zu beteiligen, dann denke ich auch findet sich jemand der das umsetzt. Es sollte natürlich finanziell attraktiv sein. Der Preis sollte zwar nicht alle Koste decken, aber einen guten Teil. Ich denke so 20 bis 30 Millionen Dollar würden der NASA nicht wehtun, wenn man den Gegenwert in Form von Reklame und Bildmaterial für Dokus sieht, ist das nicht zu viel. Umgekehrt wäre man dann schon bei einer Summe, bei der das auch für einen möglichen Interessenten finanziell attraktiv ist und ein Risiko besteht nicht für die NASA – bezahlt wird erst, wenn die Clips übertragen sind. Die NASA könnte sogar Unterstützung leisten, indem sie kleine RTG-Pellets, das ist, Pu-238 in einer Hülle, die es vor Unfällen schützt abgibt. Die nutzt die NASA zum Warmhalten von sensiblen Teilen in ihren Rovern oder auch Raumsonden. Dann könnte ein Rover auch die Nacht überleben. Kritisch wäre wahrscheinlich vor allem die Elektronik und Batterie.

29.7.2019: Die 50-Prozent-Chance, ich kanns nicht mehr hören

Es liefen jetzt ja in den letzten zwei Wochen etliche Dokus über Apollo. In vielen wird das Risiko „zelebriert“. So soll Apollo 8 je nach Quelle nur eine 50 oder 33 Prozent Erfolgschance gehabt haben und natürlich wird auch das bei Apollo 11 angegeben. Klingt toll und dann sind ja die Testpiloten, die dieses Risiko eingehen, weil sie Krieger im kalten Krieg sind. Ach was sind das für Helden. Den letzten Anstoß für diesen Blog gab die Sendung „Planet Wissen“ in der Matthias Mauer, Astronautenkandidat sich ähnlich geäußert „... zum Mond zu fliegen mit Kosten die nicht zu 100 % sicher waren. Im Endeffekt hat man nachgerechnet und weiß, die Wahrscheinlichkeit das etwas schiefgehen konnte lag bei 50 %.Heutzutage werden Kapsel entwickelt und dann ist es zu 99,9 sicher das wir diese Missionen auch überleben können“. Na, wenn der das sagt, muss es ja stimmen....

Nun habe ich zwar noch nicht meinen Band über CSM und LM beendet, aber ich habe mich über Monate mit der Saturn V beschäftigt und bin dauernd über Redundanten gestoßen. Drei Schalter für das Abschalten eines Triebwerks anstatt einem. Separate Heliumvorräte für verschiedene Zwecke bei den Stufen die aber sich notfalls ergänzen oder ersetzen können. Engine-Out Fähigkeiten in den ersten beiden Stufen. Ich könnte für diesen Blog eine Liste der Redundanzen und Absicherungen nur der Saturn V aufstellen, die diesen Beitrag bei Weitem sprengt. Für die Saturn V gibt es aber eine rechnerische Zuverlässigkeit. Sie lag bei 0,95 für das Erreichen der TLI. Das würde man in der heutigen Terminologie als LOM – Loss of Mission bezeichnen. Kurz man kommt nicht zum Mond und muss abbrechen, dafür bestand die Wahrscheinlichkeit 1:20 beim Start. Schon diese Ziffer ist nun weit von der 50 % Ziffer, die 1:2 entspricht, entfernt. Sollten die CSM / LM so unzuverlässig gewesen sein? Bei Apollo 8 fällt sogar das LM weg, das heißt das alleine CSM sollte so unzuverlässig sein, das es jede zweite Mission ausfällt?

Nein natürlich nicht, denn damit hätte man sich nicht begnügt. Während der Startphase mit der Saturn lag die Wahrscheinlichkeit, dass ein Fehler rechtzeitig erkannt wird und die Besatzung gerettet werden kann, bei 0,999. Das ist das berüchtigte Loss of Crew (LOC) Risiko und das war rein rechnerisch schon fünfmal besser als bei Gemini.

Ich glaube, dass auch kein Testpilot sich auf eine Mission einlassen würde, die eine so geringe Erfolgswahrscheinlichkeit hat. Erst recht nicht mehrmals wie Lovell, Young, Scott und Cernan. Bei ihren zwei Einsätzen beträgt dann die „Überlebenswahrscheinlichkeit nur 25 %. Die Frage ist natürlich, auch wenn alles so riskant ist, wofür arbeiteten die 400.000 Leute zur Hochzeit des Apollo-Programms?

Nun ist unbestritten das die Technologie damals eine andere war als heute. Mann muss nur mal sehen, wie lange Raumsonden und Satelliten 1969 arbeiteten und wie lange sie heute arbeiten. Die damalige Vorgehensweise waren Redundanzen und Manpower. Diese vielen Leute und die damit assoziierten Kosten – heute würde ein Mondprogramm einen Bruchteil der damaligen Aufwendungen kosten - waren verantwortlich für den Erfolg. Man baute nicht nur Hardware, man testete sie extensiv überprüfte alles mehrfach und vor allem man machte sich Gedanken über auftretende Probleme und ihre Lösung. In dem Bestreben Spannung hervorzurufen werden in fast jeder Dokumentation die Programmalarme beim Abstieg von Apollo 11 hervorgehoben. Unter geht, dass die Missionskontrolle schnell eine Lösung hat, denn sie traten in Simulationen auf und es gab eine Liste von Programmalarmen und ihre Bedeutung. Man hat dieses Problem also vorausgeahnt. Ebenso wird der Resttreibstoff bzw. die verbleibende Menge übertrieben dargestellt. Apollo 11 hatte nach den Dokumentationen noch für 17 bis 20 Sekunden Treibstoff, dann hätten sie abbrechen müssen heißt es. Ja und das ist falsch. Sie hatten noch 18 s bis zum Bingo Call. Dann hatten sie noch 20 Sekunden Treibstoff. Die Missionsvorschriften besagten, das sie wenn sie beim Bingo-Call noch oberhalb von 30 m Höhe sind abbrechen müssen. Wer aber den Originalfunkverkehr abhört, dem wird klar: die Grenze (100 Fuss) unterschritten sie schon 76 Sekunden vor dem Bingo Call. Also nicht so dramatisch wie dargestellt und Armstrong stellte auch klar, das er es riskiert hätte die Fähre ohne Treibstoff noch bei 70 Fuss (21 m) Höhe zu landen, weil sie selbst dann bei der geringen Mondgravitation nur mit 17,5 km/h aufgesetzt hätte, entsprechend auf der Erde einer Fallhöhe von 1,20 m.

Was hat es dann mit den 50 % auf sich die ja auch von Astronauten verbreitet werden. Ich kann mich nicht erinnern irgend jemand sagen zu hören, das es eine 50%-Chance gab, dass sie bei der Mission ums Leben kommen. Man könnte die Angabe so interpretieren das es eine 40%-Chance gab, das die Mission ein voller erfolg ist. Denn was unbestritten ist, ist das es bei vielen Apollomissionen ernst zu nehmende Probleme gab:

Das sind nur einige Dinge, die mir spontan einfallen, ohne das ich im Detail nachschlage. Ich habe bewusst Apollo 13 weggelassen denn diese Mission zeigt das genaue Gegenteil der 50%-Annahme. Es ist dort etwas passiert, was wirklich keiner vorhergesehen hat, ein multipler Systemausfall. Und trotzdem wurden die Astronauten gerettet, eben weil die Architektur auf Sicherheit ausgelegt war. Die Batterien des LM waren nicht nur so überdimensioniert, dass sie anstatt das LM 35 Stunden lang zu betreiben sie das ganze Raumschiff 4 Tage lang betrieben. Man konnte mit ihnen sogar die Batterien des CSM aufladen, obwohl das nie vorhergesehen war. Ebenso reichten die Sauerstoffvorräte über die ganze Zeit, obwohl auch sie nur für 2 Personen und 35 Stunden reichen sollten. Und es zeigte das man in Mission Controll schnell auf die Expertise und die Arbeitskraft vieler Mitarbeiter in den Herstellerfirmen zurückgreifen konnte, um an dem Problem zu arbeiten.

Klar heute will man mehr Sicherheit haben. Man würde es wohl nicht akzeptieren, dass jede zweite Mission wie bei Apollo es irgendein größeres Problem geht. Ich fand immerhin eine Angabe, leider ohne Referenz, wonach das Risiko eines LOM bei 1:20 lag. Das ist schon eine andere Größenordnung als 1:2 und passt auch recht gut zu dem Erfahrungswert von 11 durchgeführten Missionen, keinem Crew-Verlust, aber einem Lost of Mission. Ebenso gab es für das LOM-Risko statistische Untersuchungen. Sie lagen bei der Saturn und LM bei 0,95 und beim CSM bei 0,9. Bei der Saturn I lag sie bei 0,88. Dadurch gibt es eine Wahrscheinlichkeit von 0,,792 für eine erfolgreiche Mission auf einer Saturn I und 0,813 bei einer Saturn V. Mithin einem LOM-Risiko von 1:5, das auch zu obiger Ziffer passt. Wahrscheinlich sahen die Astronauten es subjektiv anders. Ich vermute sie hatten auch anderes zu tun, als sich Studien über ihre theoretische Sicherheit durchzulesen.

Es gab auch Erfahrungen im Orbit. Es gab vor dem ersten bemannten Flug mit Apollo 7 vier unbemannte Tests des CSM und einen des LM. Auch hier gab es bei dreien Problemen. Beim ersten Einsatz des CSM schaltet sich das SPS-Triebwerk zu früh hab, beim ersten Test des Mondlanders ebenfalls das Aufstiegstriebwerk, weil man vergessen hat, das Computerprogramm an die verringerte Treibstoffmenge anzupassen und bei Apollo 6 glich das Servicemodul eine fehlende Wiederzündung der S-IVB aus. Was ebenso für die Redundanz des Apolloprogramms spricht. Auch hier die ominösen 50 % Prozent der Missionen mit größeren Vorkommnissen. Aber eine reibungslose Mission und eine gescheiterte sind zwei Paar Stiefel würde man dasselbe auf andere Missionen wie zur ISS übertragen, es sähe genauso aus. Denn auch dort passiert andauernd etwas und man muss improvisieren.

Zurück zu Matthias Maurer, der ansonsten einen kompetenten Eindruck machte. Ich denke er hat es nicht nötig die Rolle der Astronauten künstlich zu glorifizieren und das tut er wenn er das Vorkommen von „Auftreten ernsthafter Schwierigkeiten“, „Loss of Mission“ und „Loss of Crew“ vermischt, denn seine Ziffer von 99,9 % Sicherheit ist wie aus dem Satz hervorgeht das LOC-Risiko. Das ist aber rechnerisch ermittelt und schon bei Apollo wurde ein Ziel gesetzt, das die Besatzung eine Sicherheit von 99 % hat. Das ist immer noch eine Zehnerpotenz von dem entfernt, was heute Designvorgabe ist, aber verglichen mit den 50 % die zitiert werden bedeutet das, das jede 100-ste Mission tödlich endet und nicht jede Zweite.

Ich verstehe auch nicht, wie Journalisten die Ziffer dauernd verwenden können, außer den sie haben niemals eine Schule besucht: Wenn eine Mission ohne Todesfall verläuft, dann ist die Wahrscheinlichkeit ½. Bei zwei Missionen gibt es schon vier Ausgangsmöglichkeiten: Zwei Missionen mit Todesfällen, Mission 1 mit Todesfall, Mission 2 mit Todesfall und beide Missionen glücken. In 3 von 4 Fällen also ein Todesfall – Wahrscheinlichkeit ¼. Wer nur Grundkenntnisse von Mathematik hat weiß: die Wahrscheinlichkeit bei n Missionen das alle gelingen ist 1 / 2n oder bei 11 Apollomissionen ohne Todesfolge: 1 / 211 = 1/ 4096 das ist also 4-mal unwahrscheinlicher als das es bei einer einzigen heutigen Mission einen Todesfall gibt.

So ist diese Episode wie viele andere nur ein weiterer Beweis für den immer deutlicher werdenden Verfall des Niveaus der Bildung in Medien und Öffentlichkeit.

31.7.2019: Die schlechtesten Computer aller Zeiten: Der MSX Standard

Nachdem es wieder zwei Kommentare zu meinem Artikel über C64 in dieser Reihe gab, möchte ich sie mal wieder aufgriffen, mit einer Serie, an die sich heute kaum noch jemand erinnert, was schon dafür spricht, das sie nicht so erfolgreich war, anders als der C64. Die Kommentare haben mich an die Zeit erinnert, als ich einen Heimcomputer hatte und stundenlang mit andren diskutieren konnte, warum meiner besser war als ihrer. Als MSX rauskam, hatte sich das schon gelegt und ich war schlauer. Es ging nicht um das, was eine Maschine kann, sondern das, was ich persönlich von ihr will. Und wenn jemand nur Module mit ROMs in einen Schacht schiebt, dann hat der andere Ansprüche als jemand der Texte verfassen will, oder jemand der komfortabel in BASIC programmieren will.

Was die damalige Szene auszeichnet, war ihre Vielfältigkeit. Es gab natürlich einige Marken die verkauften sich gut. Zu den Verkaufsbestsellern gehörten sich die Sinclair Serie (ZX81, ZX Spectrum), die 8-Bit-Rechner von Commodore (VC-20, C-64, C-128) und die Armstrads (CPC 464, 664 und 6128). Doch dann gab es etliche auch bekannte Marken wie das Color Genie, den Dragon, die Atari 400 und 600. Andere waren woanders erfolgreich nur nicht bei uns, so die Acorn BBC und Electron und der Oric. Dazu gab es dann etliche Geräte, die in Asien und den USA auf den Markt kamen und es nie so richtig zu schafften, bei uns zu auf den Markt zu kommen.

Der Grund liegt auch darin, dass wenn man sich reinkniete, dass Geräte wirklich verstehen konnte, und der Grund, warum Stephen Wozniak fast alleine den Apple II konstruierte und den BASIC-Interpreter schrieb. Das war allerdings schon außergewöhnlich, denn schon damals waren Hardwareentwicklung und Softwareentwicklung getrennt.

Man konnte, wenn man sich für einen Prozessor entschied, leicht selbst die Architektur festlegen. Es gab für alles Standardbausteine. Von Zusatzchips wie I/O-Bausteine, Videoprozessor und Soundchips bis hin zu den vielen Kleinbausteinen, die man brauchte, um Adresssignale zu trennen, damit nicht alle Chips sich angesprochen fühlten. Letzte wurden aber immer öfters durch einen einzigen Custom-Chip ersetzt, das sparte in der Großserie Kosten. Kurzum: Die Konstruktion eines Heimcomputers stellte eine Firma, die schon mit Elektronik Erfahrung hatte, nicht vor große Probleme. Die nötige Software konnte man sogar einkaufen – das Microsoft BASIC lief gerade aus diesem Grund bei so vielen Rechnern.

So erschienen etliche Rechner. Alleine die deutschsprachige Wikipedia-Liste ist lang. In der Praxis engt sie sich ein. Denn die meisten Rechner gab es in Deutschland nur über wenige Distributoren. Wer in ein Kaufhaus ging oder einen der wenigen Computerfachgeschäfte, der fand dort nur wenige Geräte, typisch drei bis vier und das waren eben die am häufigsten verkauften.

Dieses Henne-Ei Problem hatten auch zahlreiche japanische Hersteller, die bisher kaum auf den US-Markt und europäischen Markt kamen. Sie arbeiteten, was in Japan bei Unternehmen nicht so selten ist wie bei uns, zusammen. Sie wollten einen gemeinsamen Standard schaffen, der für viele Computer galt. Das geht nur, wenn man die Hardware festlegt. Das waren im Falle von MSX:

Grafikprozessor und Soundchip waren für Spiele wichtig. Zusammen mit der CPU legten sie die Fähigkeiten der Maschine fest. Damit konnte man Spiele programmieren die auf allen Rechnern liefen. Das gemeinsame BASIC war für alle wichtig die programmierten. Damals waren Computerzeitschriften voll von Listing von Programmen. Doch jedes Programm lief nur auf einem Rechnertyp. Der Standard wurde daher auch nach dem BASIC „Microsoft Extended Basic“ MSX genannt.

Wie konnten sich dann Hersteller profilieren?

Da der Standard zwar die Hardware festlegt, konnte der Hersteller noch sein Produkt dahin gehend designen, was offen war. Offen war, wie viel RAM die Rechner hatten, welche Anschlüsse außer Expansionport, Modulport und Joystickanschluss) nach außen (es gab Geräte mit oder ohne Druckerport) und die Tastatur und deren Layout. Manche Geräte hatten auch einen integrierten Joystick.

An und für sich hätte MSX erfolgreich sein können. Zumal die Rechner von Firmen kamen, die sonst Unterhaltungselektronik herstellten. In Europa z. B. von Phillips, aber auch andere bekannte Marken wie Sony oder Panasonic. Viele Leute kauften damals ihren ersten Computer, meistens nicht selbst, sondern die Kinder wollten einen. Und die Bereitschaft etwas von einer Firma zu kaufen die man schon kennt, ist größer als die von einer Firma, die man noch nicht kennt weil sie eben nur Computer produziert.

MSX wurde aber nur in Japan erfolgreich, wo von der ersten Serie etwa 4 Millionen Geräte verkauft wurden. Es gab später noch Nachfolgestandards, der letzte folgte 1990, sodass es weltweit über alle Hersteller etwa 9 Millionen Geräte sind. Gerade in Europa und Amerika wurden die Geräte aber ein Flop. Auch die Stückzahl muss man in Relation sehen. Auf ähnliche Stückzahlen oder höhere kamen Apple II, C-64, Sinclair Spectrum und die Armstrads. Nur verteilten die sich nicht über drei Standards und zwei Dutzend Hersteller.

Es gab primär zwei Gründe für den Fehlerfolg.

Der MSX-1 Standard erschien 1983, die ersten Geräte kamen 1984 auf den Markt, in Europa aber nicht vor Jahresende. Es folgte dann der MSX-II Standard, der mehr RAM, bessere Grafikfähigkeiten bot. Doch warum wurde es dann nicht der Erfolg? Zum einen hatte man bei MSX I den Standard zu wenig weit gezogen. Die Belegung der Ports war zwar standardisiert, nicht jedoch, wie die Stecker nach außen geführt wurden. So definierte jeder Hersteller seinen Stecker. Mit dem natürlichen Hintergedanken, dass man so nur die eigene Peripherie anschließen konnte. Bei fast jedem Rechner dieser Generation kam früher oder später ein Floppylaufwerk dazu. Das war in der Regel teurer als der Computer selbst. So machte man da Kasse und konnte beim Preis des Computers runtergehen. Ebenso waren die Disclaufwerke nicht standardisiert es gab die Formate 3 Zoll, 3,5 Zoll und 5,25 Zoll. Das Format jeder Diskette und DOS waren dann wieder festgelegt.

Das war schon ein Problem: Die Geräte waren auf Programmierschnittstelle kompatibel, nicht aber für den Käufer so wichtigen Zubehörseite. Wer nur spielen wollte und das mit Modulen tat, für den war das egal. Der kaufte das für ihn billigste Gerät. Die meisten Käufer von Heimcomputer nutzten ihn als Spielkonsole, das war damals von der Hardware und langfristig auch den Kosten besser, als eine Spielkonsole zu kaufen. Der BASIC-Interpreter war nur nötig um das Speil zu starten und die wenigsten programmierten mit dem Gerät.

Was allerdings sich als Nachteil entpuppte, war die Konzeption mit nur 32 KByte RAM. Bis diese umgesetzt war, verging Zeit und nochmals ein Jahr, bis die Geräte nach Europa kamen. Ende 1984 waren aber 32 KByte RAM schon obsolet. Der C-64 und CPC-464 hatten 64 KByte RAM. Man rüstete nach, konnte aber den Standard nicht verändern. Einigermaßen intelligent macht das noch Phillips beim VG8010. Das hatte 48 KByte RAM. Da der Videoprozessor das RAM selbst verwalten konnte, vergrößerte dies den verfügbaren Hauptspeicher auf 28.815 Bytes. Viele andere Firmen gingen gleich auf 64 KByte, doch weil das BASIC die oberen 32 KByte des Adressbereichs belegte, hatten, auch diese nur 28.815 Bytes frei. Kein Byte mehr als mit 16 KByte weniger Speicher. Gut keiner der damaligen 64 KByte Rechner hatte 64 KByte für BASIC frei, weil ROM / und /oder Grafikspeicher Platz belegten. Aber zwischen 38.900 und 43.900 Bytes waren bei den Konkurrenten C64 und CPC 464 Standard. Da waren 28.800 Bytes einfach zu wenig, ein Viertel bis Drittel weniger verfügbarer Speicher, was für größere Programme schon einen Unterschied macht.

Zudem waren die Geräte teuer. Der erwähnte Phillips 8010 kostete Anfang 1985 799.- DM, ein Yasica YC-64 kostete 899.- DM. Für den Preis bekam man einen CPC 464 mit Grünmonitor und integriertem Kassettenrekorder. Ein C64 kostete unter 700 DM und ein Sinclair Spectrum, allerdings mit Radiergummitastatur 498 DM. Die Geräte waren also zu teuer, mindestens um 100 bis 200 DM.

Als dann der Bachfolgestandard MSX-2 rauskam mit einer wirklich tollen Grafik und einer sinnvollen Speicherweiterung (von den meist 256 KByte Speicher hatte alleine das Videoram 128 KByte) war es schon zu spät. Inzwischen gab es auch die ersten 16 Bit Computer wie den AtarI ST und Sinclair QL und der Amiga war angekündigt. Bei den 8 Bit Rechnern hatten Armstrad und Commodore den Markt aufgeteilt. Commodore lockte mit günstigem Preis und hatte als Zielgruppe die Spieler und die Armstrads die Leute, die den Rechner professionell nutzen wollten. Das war dank Monitor und 80 Zeichen sowie schnellen Floppy problemlos möglich. Die MSX-2 Geräte wären zum Spielen noch besser gewesen, doch da gab es wieder das Henne-Ei Problem. Sie waren zu selten. Viele Jugendliche tauschten Spiele auf dem Schulhof und da gab es dann eben niemanden der das Gerät hatte und Eltern kauften ihren Sprösslingen meist auch den billigsten Konsolenersatz.

MSX hat einiges falsch gemacht. Man ging die Sache zu spät an, mit zu wenig RAM am Anfang. Die Geräte waren zumindest bei uns zu teuer und man hätte auch alle Anschlüsse standardisieren müssen. So blieben sie auf Japan beschränkt, vielleicht auch, weil Japaner gerne japanische Geräte kaufen. Denn umgekehrt kamen europäische oder US-Marken auch nur schwer auf den japanischen Markt. Sie sind damit etwas untypisch. Denn Japan hatte in anderen Branchen wie der Fotoindustrie mit demselben Konzept durchaus Erfolg.

Kleiner Splitter am Rande. Ich habe für den Artikel zur Recherche eine alte ct, die cT 2/1984 durchgelesen und da kommt nach dem Bericht über MSX noch ein Bericht über einen Supermikro von damals einen Cromenco QX-100 mit 10 MHz MC 68000 CPU und einem Komplettpreis von 35.000 DM. Betriebssystem war UNIX. Ein Auszug aus dem Testbericht: „Ein Beispiel von vielen: Dem UNIX-System werden drei einander ähnliche Editoren mitgeliefert. Keines dieser Programme erreicht auch nur an nähernd den Komfort und die Leistungsfähigkeit eines WordStars oder WORD. Selbst ein C64-Benutzer würde da die Nase rümpfen.“

Na das wird die C64 Fans doch in Freude versetzen. Ist ihr Computer doch in einem Punkt besser als ein 35.000 DM teurer Supermikro. Wenn ich an meinen Raspberry PI denke und Anleitungen im Internet, wo ich VI nutzen soll, mus ich dagegen hat sich seitdem auch zumindest bei dem Editor nicht viel gerändert, weshalb ich auf dem Raspberry auch meistens den nano nehme ...

1.8.2019: Nachlese Juli und Apollo

Nun ist der Juli vorbei und ich kann in mehrerlei Weise eine positive Bilanz ziehen. Fangen wir mit meiner persönlichen Klimawende an. Die habe ich mit dem Betrieb der zweiten Photovoltaikanlage vollende. Inzwischen tue ich noch mehr und habe bei Atmosfair einen Dauerauftrag über die Kompensation von 10 t Kohlendioxid pro Jahr anlegt. AFD-nahen Klimaleugnern mag das zweimal die Laune verdrießen, denn mit dem Geld werden nach Zertifikat Projekte in Afrika gefördert. Also im Ausland. Dumm nur, dass es auf der Welt 7 Milliarden Ausländer und nur 80 Millionen Deutsche gibt. Mir ist das Thema wichtig und mein Verständnis für Meckerer hält sich in Grenzen. Es ist ja was typisch Deutsches immer an etwas rumzukritisieren und ich schließe mich da nicht aus. Aber die Nächsten, die mit Kritik kommen, müssen sich die Gegenfrage gefallen lassen, was sie denn für den Klimaschutz tun. Denn wer andere kritisiert nur um sein eigenes Nichtstun innerlich zu rechtfertigen, für den habe ich kein Verständnis. Wer fragt, ob sich die Ausgaben "amortisieren“ sollte auch mit Gegenfragen rechnen. Ich finde es erstaunlich, das man das rechtfertigen muss. Amortisiert sich ein Auto? Bei den meisten nicht. Alternativen sind in der Summe billiger. Klimaschutz amortisiert sich sicher, aber eben nur global, nicht für einen persönlich. Die Schäden durch die Klimaveränderung sind größer, als die Investitionen sie zu verhindern. Dabei springt sogar noch eine höhere Lebensqualität raus. Bei der Stromerzeugung z.B. die fehlende Gefahr eines GAU und Landschaften, die nicht dem Erdboden gleichgemacht wurden, um Kohle abzubauen.

Der Juli war sonnenreich, auch wenn nicht so sonnenreich wie der Juni. Meine erste Anlage logt 930 kWh, im Juni waren es noch 975. Erfreulich entwickelt sich die zweite Anlage, obwohl nur die Hälfte des Monats am Netz sind, es dort auch schon 822 kWh.

Dank Apollo war dieser Juli der besucherreichste Monat bisher. 42.214 Besucher. Das sind etwa 5.000 mehr als der bisherigen Rekordhalter. Genau weiß ich den nicht mehr, denn die Statistik geht nur drei Jahre zurück und das war vorher. Ich stelle aber auch fest, dass es seit einem Jahr einen Trend zu mehr Besuchern gibt. Seit September 2018 war kein Monat unter 20.000 Besuchern. Vorher gab es über Jahre, nachdem ich schon mal ein Spitzenplateu von 25.000 bis 26.000 Zuschauern hatte, einen Abwärtstrend. Was sich seitdem geändert hat, weiß ich ehrlich gesagt nicht. Denn ich hätte eher durch meine vielen technischen Blogs, da nun durch Simulationen nachgerechnet, damit gerechnet, dass es eher weniger Besucher sind. Ich hoffe das einige der neuen Besucher dauerhaft hier bleiben. So auf die Dauer um die 25.000 Besucher wäre nicht schlecht. Und nicht zu vergessen: man kann hier auch aktiv mitarbeiten. Dieser Blog ist ja basisdemokratisch. Jeder kann mitmachen. Es muss im Artikel auch nicht um Raumfahrt gehen.

Klar sind auch die Buchverkäufe etwas höher. Der Juli war in etwa so gut wie sonst ein Quartal. Erfreulich sind 42 verkaufte Exemplare des Apollobuchs. Ja 42 sind viel. Zumindest für mich. Denn ich erreiche nicht die, die nur seichte Informationen wollen und die, die an mehr interessiert sind und dann nicht gleich die Originaldokumente einsehen, sind eben wenige.

Die NASA hat nun ja schon wieder einen Rückschlag bei ihrem neuen Apolloprogramm genannt Artemis, nach der griechischen Zwillingsschwester von Apollon. Ich hätte ja die römische Bezeichnung von Artemis, „Diana“ vorgeschlagen, da hätte man bei den vielen monarchiebegeisterten gleich eine Riesenfangemeinde. Eine Firma, die einen Minimondlander entwickeln sollte ist ausgestiegen. Und zwar von sich aus. Das nötigt mir Respekt ab. Im Normallfall kassieren dann Firmen solange es geht Gelder und versuchen zu verschleiern, dass es keine Fortschritte gibt. Ich denke da Rocketplane-Kistler, die Firma Rocketplane hat Kistler nur übernommen um bei COTS mitzubieten und bis die NASA merkte, das sie keinen Fortschritt macht hat sie schon 32,2 Millionen Dollar kassiert. Das war ein Grund, warum Orbital damals 100 Millionen weniger als SpaceX bei der COTS-Förderung bekam und ein Jahr später an den Start ging.

Artemis wird auch wieder eingestellt werden, so meine Prognose. Denn Apollo war eben kein Wissenschaftsprogranmm. Es war ein Prestigeprogramm, das nur im kalten Krieg möglich war. Wenn es um Wissenschaft geht, wird man nie so große Summen lockermachen und Wissenschaftler hätten wohl auch kein solches Programm für das Bergen von Gesteinsproben gefordert sondern dann wohl eher mehr Investitionen in andere Bereiche der Raumfahrt wie die Erforschung der Planeten oder der Astronomie. Es flog ja auch nur bei der letzten Mission ein Wissenschaftler mit und das erst auch erst nach massiven Protesten.

Geld gibt es genug, wenn man woanders nur haushalten würde. Vor allem das Militär ist gut darin, enorme Summen für wenig auszugeben. Alleine die Investitionen in Raketenabwehrsysteme die nie funktionierten bis einschließlich SDI waren um ein vielfaches teurer als Apollo. Dort scheint man die Ausgaben auch nie zu hinterfragen. Mein abschreckendstes Beispiel über, das ich jedes Mal die Ohren schlackere, ist, das das US-Militär nur für die Klimatisierung der provisorischen Soldatenunterkünfte in Afghanistan und Irak mehr ausgab, als der ganze NASA Etat im selben Zeitraum betrug, „20 Milliarden pro Jahr für Klimaanlagen. Noch bedeutender: die werden mit Treibstoff betrieben und 1000 Soldaten wurden getötet als den Treibstoff beförderten, da er natürlich ein Ziel für Terrorangriffe ist. Für die Summe hätte man locker 100.000 Passivhäuser bauen können, mit mehr Komfort als die Zelte und hätte dann sicher für alle Soldaten ausreichend Wohnraum denn man später sogar der Zivilbevölkerung zur Verfügung stellen könnte. Die Huffington Post rechnet sogar vor, dass das US-Militär auch einfach die Zelte mit einer Isolierung aus Polyurethan versehen könnte, was nur 95 Millionen Dollar kostet, aber das wäre nicht ihre Politik.

Kurz beim Militär sitzt das Geld locker und da wird auch eine Unsinnsausgabe fast nie kritisierst. Bei uns ist es ja ähnlich. Da zieht bei der teuren Renovierung der Gorch Fock auch keine die Notbremse. Leute das ist ein Segelschiff, gebaut 1958. Da wird man es nach 60 Jahren doch, wenn es zu teuer ist es zu renovieren, ins Museum stellen können. Auch AKK fordert wieder mehr Geld für die Bundeswehr. Zum Teil zu recht, denn wenn ich höre, dass die Bundeswehr nicht mal einsatzfähig ist und man für Einsätze dann Ausrüstung aus der ganzen Republik zusammensuchen muss, weil man nach 1990 das Ersatzteillager einfach nicht mehr aufgefüllt hat, dann ist das untragbar. Aber nur eine Vorgabe einer Zahl x % des Bruttosozialprodukts ist eine Unverschämtheit. Nachdem die derzeitige Ausrüstung wieder voll einsatzfähig ist, sollte AKK ihre Projekte vorlegen, von denen sie denkt, dass sie wichtig sind, Über die kann man dann einzeln sprechen. Aber mit Geld alleine hat man ja noch keine schlagkräftige Armee. Bestes Beispiel die USA. Sie haben die größte und teuerste Armee der Welt, geben weitaus mehr als die 2 % des Inlandsprodukts für Rüstung aus und haben den Vietnamkrieg verloren, den Irak nach Abzug in einem Chaos hinterlassen und bei Afghanistan sieht es auch so aus als wären die Taliban bald zumindest an der Regierung beteiligt. Was haben sie also mit den Hunderten von Milliarden, die nur die beiden letzten Kriege kosteten, erreicht?

Ich finde es erstaunlich, da man in Deutschland mit einer abstrakten Zahl durchkommt, die man nicht rechtfertigen muss. Denn keiner sagt, ja was wir von den 2 % des Inlandsprodukts für die Bundeswehr konkret mehr haben – mehr Flugzeuge, mehr Soldaten, eine höhere Beteiligung an Friedensmissionen? Wenn man für die Weltraumforschung nur 0,1 % des Inlandsprodukts (wäre immer noch mehr als man heute dafür bekommt) fordern würde, gäbe es wahrscheinlich einen Aufschrei. Aber beim Militär denken wohl alle gleich an den Russen, der sonst morgen im Vorgarten stehen könnte. Damit entlasse ich euch in den August, der hoffentlich nicht ganz so heiß wie der Juni und Juli wird.

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99